Azure でのオープンソースの機械学習のフレームワーク
オープン エコシステムを使用してモデルをすばやく構築してデプロイします。
お気に入りのオープンソースのフレームワークを使用し、Azure で機械学習モデルをすばやく構築してデプロイします。Azure では、オープンで相互運用可能なエコシステムを利用して、ロックインされずにお好みのフレームワークを使用し、機械学習ライフサイクルのあらゆる段階を加速化し、クラウドからエッジまでどこでもモデルを実行することができます。
機械学習モデルを好みのフレームワークで構築する
Azure では、一般的な機械学習フレームワークがすべてサポートされます。PyTorch や TensorFlow のようなディープ ラーニングのフレームワークでモデルを開発する場合も、Azure の自動化機械学習機能を利用する場合も、従来型の機械学習モデルを scikit-learn でトレーニングする場合も、そのワークロードを Azure 上でサポートできます。
推論をどのオペレーティング システムとハードウェア プラットフォームでも
オープンソースの ONNX Runtime を使用して、さまざまなハードウェア プラットフォームで推論を最適化します。ONNX Runtime は、PyTorch、TensorFlow、Keras、SciKit-Learn などの一般的なフレームワークと連携し、推論については速度を最大 17 倍に、トレーニングについては最大で 1.4 倍に向上させます。ONNX Runtime を使用した ML モデルの推論は、Linux、Windows、Mac で、さらにはモバイル デバイスで行うこともできます。ONNX Runtime は、Intel や NVIDIA をはじめとするパートナー提供の最新のアクセラレータ ソフトウェアおよびハードウェア ライブラリと統合されているため、クラウドとエッジのどちらで実行する場合でもパフォーマンスを最大限に高めることができます。
エンド ツー エンドの機械学習ライフサイクルを加速させる
機械学習を自動化して生産性を加速しましょう。適切なアルゴリズムをすばやく特定し、ハイパーパラメーターをチューニングし、機械学習ライフサイクル全体を簡単に管理でき、クラウドからエッジまでシンプルにデプロイできます。これらのすべての機能には、ツールに依存しない Python SDK からアクセスできます。