Azure Machine Learning サービス

モデルの構築、トレーニング、クラウドからエッジまでのデプロイ

お知らせ

  • TAL
  • Asos
  • Elastacloud
  • Wipro
  • Cognizant

概要

機械学習モデルの構築、トレーニング、デプロイを簡単に行えるようにし、加速化します。自動化された機械学習を使用すると、適切なアルゴリズムの特定とハイパーパラメーターの調整をより迅速に行えます。自動スケーリング コンピューティングと機械学習用の DevOps を使用して、生産性の向上とコストの削減を実現します。クリック 1 回で、クラウドとエッジにシームレスにデプロイできます。こうした機能すべては、PyTorch、TensorFlow、scikit-learn などの最新のオープンソース フレームワークを使用してお好みの Python 環境から利用できます。

Azure Machine Learning service を選ぶ理由

生産性の高さ

自動化された機械学習、自動スケーリング クラウド コンピューティング、組み込みの DevOps を使用して、モデルの構築とトレーニングをいっそう迅速に行います。

オープン

あらゆる Python 環境から、好みのフレームワークとツールで、Azure Machine Learning service を使用します。

信頼性の高さ

Azure のセキュリティ、コンプライアンス機能、仮想ネットワーク サポートで、企業の対応力を向上させます。

ハイブリッド

モデルの構築とトレーニングを行い、オンプレミス、クラウド、エッジにデプロイします。

Azure Machine Learning service の機能

自動化された機械学習

適切なアルゴリズムとハイパーパラメーターをいっそう迅速に特定します。

マネージド コンピューティング

強力な GPU クラスターを自動スケールすることにより、モデルを簡単にトレーニングして、コストを削減します。

機械学習用の DevOps

実験の追跡、モデル管理および監視、統合 CI/CD、機械学習パイプラインを使用して生産性を向上させます。

シンプルなデプロイ

コードを数行書くだけで、クラウド、エッジ、オンプレミスにモデルをデプロイします。

ツールに依存しない Python SDK

Azure Machine Learning service は、Visual Studio Code、Jupyter Notebook、PyCharm など、任意の Python 環境と統合します。

オープン ソースのフレームワークをサポート

PyTorch、TensorFlow、scikit-learn などのお気に入りの機械学習のフレームワークとツールを使用します。

Azure Machine Learning service の使用方法

手順 1/3

手順 1.ワークスペースの作成

お好みの Python 環境に SDK をインストールし、ワークスペースを作成して、コンピューティング リソース、モデル、デプロイ、実行履歴をクラウドに格納します。

手順 2/3

手順 2.構築とトレーニング

任意のフレームワークと自動化された機械学習機能を使用して、適切なアルゴリズムとハイパーパラメーターをより迅速に特定します。実験を追跡し、クラウド内の強力な GPU に簡単にアクセスします。

手順 3/3

手順 3.デプロイと管理

クラウドまたはエッジにモデルをデプロイし、超高速推論を実現するために Field Programmable Gate Array (FPGA) で Hardware Accelerated Models を活用します。モデルが運用環境にある場合は、そのパフォーマンスとデータの誤差を監視し、必要に応じて再トレーニングします。

関連製品およびサービス

Azure Databricks

迅速、簡単で協調型の Apache Spark ベースの分析プラットフォーム

Machine Learning Studio

予測分析ソリューションを簡単に構築、デプロイ、管理

Cognitive Services

スマートな API 機能を追加して状況に合ったやり取りを実現する

Data Science Virtual Machines

AI 開発のためにあらかじめ構成されたリッチな環境

Azure Machine Learning service を使ってより適切な意思決定を始めましょう