Azure Batch AI

容易に実験を行い、ディープ ラーニングおよび AI モデルを大きな規模で並行してトレーニングする

簡単なデプロイと柔軟性

リソースのプロビジョニングと管理は Batch AI に任せることで、インフラストラクチャではなくワークロードに注力できます。サービスでは仮想マシンとコンテナーをデプロイし、共有ストレージを接続してログイン用に SSK が構成されます。Batch AI トレーニングでは柔軟性の高いプログラミング モデルと SDK が提供されるため、独自のパイプラインとワークフローを簡単に統合できます。Batch AI によってデプロイが処理されるため、ネットワークとハイパーパラメーターでの反復処理が簡単にできます。

ハイ パフォーマンス トレーニング

Batch AI は、InfiniBand で接続された最新の NVIDIA GPU を含む、Microsoft Azure VM のすべてのファミリで機能します。これにより、モデルとトレーニング データのニーズに応じて、コンピューティング リソースを拡大または縮小できます。Microsoft の AI 開発で使用されているのと同じパワフルなインフラストラクチャが、オンデマンドでご利用いただけます。

お好みのフレームワークをサポート

お好みのフレームワークやライブラリを使用できます。Azure Batch AI は、CNTK、TensorFlow、Chainer などのディープ ラーニング フレームワークをサポートします。または、Docker コンテナーにコードを持ち込んで、残りの処理を任せることもできます。Batch AI では、Azure コマンド ライン、Jupyter Notebook、Python ライブラリを使用したサービスのスクリプト作成がサポートされるほか、REST API、C#、Java などの言語用の SDK を使用するワークフローの統合がサポートされます。お好みのツールをお使いいただけます。

関連製品およびサービス

Machine Learning のサービス

実験とモデル管理ができる、エンド ツー エンドのスケーラブルで信頼性の高いプラットフォームで、すべてのユーザーが AI を使えるようにします

HDInsight

クラウド Hadoop 、Spark、R Server、HBase、および Storm クラスターのプロビジョニング

Virtual Machines

Windows と Linux の仮想マシンを数秒でプロビジョニング

詳細情報

Batch AI を使ってみる