提供中

Azure Machine Learning の新機能を提供開始

更新: 5月 06, 2019

含まれる機能

  • モデルの解釈可能性 - Machine learning の解釈可能性により、データサイエンティストは、使いやすくてスケーラブルな最先端のテクノロジを利用して、すべてのデータについてグローバルに、または特定のデータ ポイントについてローカルに、使用機械学習モデルを説明できます。  Machine Learning の解釈可能性には、Microsoft と実績のあるサードパーティ ライブラリ (SHAP や LIME など) によって開発されたテクノロジが織り込まれています。SDK では、統合されたライブラリ全体にわたって一般的な API が提供されており、Azure Machine Learning Service を統合します。この SDK を使用すると、使いやすくてスケーラブルな最先端のテクノロジを利用して、すべてのデータについてグローバルに、または特定のデータ ポイントについてローカルに、使用機械学習モデルを説明できます。
  • AutomatedML、Automated ML の新機能、および Databricks、CosmosDB、HDInsight でサポートされている AutomatedML を使用した予測 –
    • Automated ML では、ML ワークフローの一部を自動化するため、ML モデルの構築にかかる時間が削減され、データ サイエンティストが解放されて重要な作業に集中できます。それと同時に、ML が簡略化され、対象ユーザーの範囲が広がります。発表内容は以下のとおりです。
    • 予測の一般提供の開始と新機能
    • Databricks、SQL、CosmosDB、および HDInsight の統合
    • 説明可能性の一般提供の開始とパフォーマンスの向上
  • .NET 統合 ML.NET 1.0 リリースは、ML.NET 0.1 をオープンソースとしてリリースした 2018 年 5 月に始まった、オープンソースでの素晴らしい過程の最初の大きなマイルストーンです。毎月リリースしていたため、12 のプレビュー リリースとこの最終の 1.0 リリースがあります。ML.NET は、オープンソースであり、.NET 開発者向けのクロス プラットフォーム機械学習フレームワークです。開発者は、ML.NET を使用して、既存のツールとスキルセットを活用し、感情分析、レコメンデーション、画像の分類など、一般的なシナリオ向けにカスタム機械学習モデルを作成することで、カスタム AI を開発してアプリケーションに組み込むことができます。 ML.NET Python バインディングである NimbusML は、ML.NET と Azure Machine Learning を一緒に使用するために使うことができます。データ サイエンティストは、NimbusML によって、Azure Machine Learning で、または Python を使用している他の場所で、ML.NET を使用してモデルをトレーニングできます。トレーニング済みの機械学習モデルは、この例のような ML.NET PredictionEngine と共に、.NET アプリケーションで簡単に使用できます。
  • Azure DevOps での、実験、パイプライン、モデル登録、検証、およびデプロイの最高のサポート: Azure Machine Learning には、データ準備、モデルのトレーニング、モデルのパッケージ化、検証、モデル デプロイなど、機械学習ライフサイクルの端から端までを簡略化するミッションがあります。これを実現するため、次のサービスを開始しようとしています。
    • 環境、コード、およびデータのバージョン管理サービス (Azure ML 監査証跡に統合)
    • Machine Learning 向けの Azure DevOps 拡張機能Azure ML CLI
    • ML モデルの検証デプロイのための簡素化されたエクスペリエンス Microsoft では、運用対応のクラウドネイティブ ML ソリューションを促進することで、お客様が ML を迅速に採用できるようにしています。運用環境の準備状況は次のように定義されます。
      • 再現可能なモデル トレーニング パイプライン
      • リリース前のモデルの証明可能な 検証、プロファイル、および追跡
      • 該当するすべてのセキュリティ ガイドラインに関するあらゆる必需品を含む、エンタープライズ級のロールアウトと統合された可観測性 
  • ONNX ランタイムと TensorRT:ONNX ランタイムでの NVIDIA TensorRT 実行プロバイダーである ONNX ランタイムの一般提供を発表いたします。これにより、フレームワークの選択にかかわらず、開発者が業界屈指の GPU アクセラレーションを簡単に活用できるようになります。開発者は、ONNX モデルの推論を高速化できます。このモデルは、PyTorch、TensorFlow、その他の多くの一般的なフレームワークからエクスポートまたは変換できます。  ONNX ランタイムと TensorRT 実行プロバイダーを併用することで、NVIDIA ハードウェアでのディープ ラーニング モデルの推論を高速化できます。これにより、開発者は、さまざまな種類のハードウェアにわたって ONNX モデルを実行し、さまざまなハードウェア構成を対象にする柔軟性を備えたアプリケーションを構築することができます。このアーキテクチャは、ディープ ニューラル ネットワークの実行の最適化に不可欠なハードウェア固有のライブラリの詳細を要約したものです。
  • FPGA ベースの Hardware Accelerated Models: FPGA は、Microsoft のハードウェア アーキテクチャである Project Brainwave に基づく機械学習の推論のオプションです。データ サイエンティストと開発者は、FPGA を使用してリアルタイムの AI 計算を高速化することができます。 Data Box Edge にデプロイしたモデルのプレビューと共に、クラウドでこれらの Hardware Accelerated Models の一般提供を開始しました。FPGA は、パフォーマンス、柔軟性、およびスケールを提供し、Azure Machine Learning からのみ利用できます。これらによって、リアルタイムの推論要求に関して短い待機時間を達成できるようになり、非同期要求 (バッチ処理) のニーズを軽減します。

詳細についてはこちら (英語) をご覧ください

  • Azure Machine Learning
  • Microsoft Build

Related Products