責任ある ML で信頼できる AI を構築する

2020年5月19日 に投稿済み

Corporate Vice President, Azure AI

AI は、業界やアプリケーションをまたいで重要なモメンタムに達しつつあり、安全かつ責任ある AI の使用が不可欠になっています。AI デプロイは、このようなソリューションの透明性、説明責任、公平性について顧客からの信頼が失われることにより、ますます大きな影響を受けるようになってきています。Microsoft は、AI と機械学習 (ML) の発展に取り組んでおり、これは人ファーストの原則と、それを実践に適用するためのツールによって推進されています。

Aether Committee とそのワーキング グループとのコラボレーションにより、Microsoft は責任ある AI の最新の研究を Azure で利用できるように取り組んでいます。Azure Machine Learning の新しい責任ある ML 機能と、Microsoft のオープンソースのツールキットを使用して、データ サイエンティストや開発者が ML モデルを理解し、人々やそのデータを保護し、エンドツーエンドの ML プロセスを制御する方法について確認しましょう。

Azure Machine Learning の責任ある ML 機能を使用すると、開発者やデータ サイエンティストは、理解し (解釈可能性と公平性)、保護し (差分プライバシーや機密 ML)、エンドツーエンドの ML プロセスを制御 (監査証跡やデータシート) することができます。

理解

ML は日々のビジネス プロセスに深く統合されているため、透明性は重要です。Azure Machine Learning を使用すると、モデルの動作を理解できるだけでなく、非公平性を評価して軽減することができます。

モデルの動作の解釈と説明

InterpretMl ツールキットを使用した Azure Machine Learning のモデルの解釈可能性機能により、開発者やデータ サイエンティストはモデルの動作を理解し、ビジネス上の関係者や顧客にモデルの説明を提供することができます。

モデルの解釈可能性機能を使用すると、次のことを行うことができます。

  • 正確な ML モデルの作成。
  • トレーニングおよび推論のフェーズの両方で、ディープ ニューラル ネットワークなど、さまざまなモデルの動作を理解する。
  • What-if 分析を実行して、機能の値が変更された場合のモデル予測への影響を判断する。

「Azure Machine Learning を使用すると、AI を責任をもって構築し、顧客との信頼を築くことができます。当社のロイヤルティ プログラムに対する不正行為の検出作業において解釈可能性機能を使用することで、モデルをさらに深く理解し、真の不正行為のケースを特定し、誤った結果が発生する可能性を減らすことができます。」

—Daniel Engberg 氏 (Head of Data Analytics and Artificial Intelligence、スカンジナビア航空)

モデルの非公平性を評価し、軽減する

現在、AI システムを構築する際の課題は、公平性に優先順位を付けることができないことです。Azure Machine LearningFairlearn を使用することにより、開発者やデータ サイエンティストは特殊なアルゴリズムを活用して、すべてのユーザーに対するより公平な結果を確実に得ることができます。

公平性機能を使用すると、次のことができるようになります。

  • モデルのトレーニングとデプロイの両方でモデルの公平性を評価する。
  • モデルのパフォーマンスを最適化しながら、非公平性を軽減する。
  • 対話型の視覚化を使用して、非公平性を軽減する推奨モデルのセットを比較する。

「Azure Machine Learning とその Fairlearn 機能には、利害関係者の信頼を得たり規制遵守を実現したりしながら、お客様に対して信頼できる AI ソリューションをデプロイするのに役立つ高度な公平性と説明可能性が備わっています。」 — Alex Mohelsky 氏 (EY Canada Partner and Advisory Data、Analytic and AI Leader)

保護

ML は、病気の患者や国勢調査データなど、機密情報が含まれているシナリオでますます使用されるようになっています。改訂機能やデータのマスキングなど、最新のプラクティスにより ML が制限されることがあります。この問題に対処するために、差分プライバシーと機密機械学習の手法を使用して、組織がデータのプライバシーと機密性を維持しながらソリューションを構築できるように支援できます。

差分プライバシーによりデータの漏えいを防ぐ

新しい差分プライバシー ツールキットAzure Machine Learning で使用すると、データ サイエンス チームはプライバシーを維持し、個人のデータを再特定できないような ML ソリューションを構築できます。これらの差分プライバシー手法は、Harvard の Institute for Quantitative Social Science (IQSS) と School of Engineering の研究者との共同作業によって開発されました。

差分プライバシーは、次の方法で機密データを保護します。

  • データに統計的なノイズを挿入することで、大幅な正確性を失うことなく機密性の高い情報が漏えいしないようにする。
  • 個々のクエリによって使用される情報の予算を追跡し、必要に応じてさらにクエリを制限することで、露出のリスクを管理する。

機密機械学習でデータを守る

データのプライバシーに加えて、組織はすべての ML 資産のセキュリティと機密性を確保することを求めています。

セキュリティで保護されたモデルのトレーニングとデプロイを実現するため、Azure Machine Learning には、強力なデータのセットとネットワーク保護機能が用意されています。これには、Azure Virtual Networks のサポート、ML ワークスペースに接続するためのプライベート リンク、専用コンピューティング ホスト、転送中および保存中の暗号化のためのカスタマー マネージド キーが含まれます。

また、このセキュリティで保護された基盤上に構築されている Azure Machine Learning を使用すると、Microsoft のデータ サイエンス チームは、データを見ることができなくても、セキュリティで保護された環境で機密データに対しモデルを作成できるようになります。このプロセスでは、すべての ML 資産が機密で保持されます。このアプローチは、オープンソースの ML フレームワークおよび幅広いハードウェア オプションと完全に互換性があります。今年後半に、このような機密機械学習機能をすべての開発者やデータ サイエンティストの皆様に提供いたします。

制御

責任をもって構築するためには、ML 開発プロセスは、反復可能で信頼性が高く、利害関係者への説明責任があるものにする必要があります。Azure Machine Learning を使用すると、意思決定者、監査者、ML ライフサイクル内のすべてのユーザーが、責任のあるプロセスをサポートできるようになります。

監査証跡を使用した ML 資産の追跡

Azure Machine Learning には、自動的に系列を追跡し、ML 資産の監査証跡を保持する機能が用意されています。実行履歴、トレーニング環境、データやモデルの説明などの詳細情報がすべて中央レジストリに取り込まれるため、組織はさまざまな監査要件を満たすことができます。

モデルのデータシートを使用した説明責任の向上

データシートは、動機や用途などの ML 情報を文書化するための標準化された方法を提供します。Microsoft では、データ サイエンティスト、監査機関、意思決定者に透明性を提供するため、データシートについての調査を実施しました。また、AI でのパートナーシップと業界、研究機関、政府機関のリーダーと連携して、ABOUT ML と呼ばれる推奨プロセスを開発しています。Azure Machine Learning のカスタム タグ機能を使用すると、最新のデータシートを実装することができます。また今後、追加の機能がリリースされます。

責任あるイノベーションを始める

Azure Machine Learning の新機能と Microsoft のオープンソース ツールに加えて、責任ある AI の使用のための原則も策定しました。新しい責任ある ML のイノベーションおよびリソースは、開発者やデータ サイエンティストが、より信頼性が高く、公正で、信頼できる ML を構築できるように設計されています。今すぐ参加して、責任ある ML の行程を開始しましょう。

関連情報


このストーリーの以前のバージョンでは、差分プライバシー ツールキットが WhiteNoise として呼ばれていました。