Mit verantwortungsvollem Machine Learning vertrauenswürdige KI schaffen

Veröffentlicht am 19 Mai, 2020

Corporate Vice President, Azure AI

Während KI branchen- und anwendungsübergreifend eine kritische Dynamik erreicht, wird es unerlässlich, den sicheren und verantwortungsbewussten Umgang mit künstlicher Intelligenz zu gewährleisten. Immer weniger Kunden vertrauen in die Transparenz, Verantwortlichkeit und Fairness von KI-Lösungen. Microsoft setzt sich für die Weiterentwicklung von künstlicher Intelligenz (KI) und Machine Learning (ML) ein und lässt sich dabei von zwei Grundsätzen leiten: Der Mensch steht im Mittelpunkt, und dieses Prinzip muss mit den richtigen Werkzeugen praktisch umgesetzt werden.

In Zusammenarbeit mit dem Aether Committee und dessen Arbeitsgruppen setzen wir die neuesten Forschungsergebnisse im Bereich „Verantwortungsvolle KI“ in Azure um. Sehen wir uns an, wie die neuen Funktionen für verantwortungsvolles ML in Azure Machine Learning und unsere Open-Source-Toolkits Data Scientists und Entwickler dabei unterstützen, ML-Modelle zu verstehen, Menschen und ihre Daten zu schützen und den ML-Prozess von Anfang bis Ende zu kontrollieren.

Funktionen für verantwortungsvolles ML in Azure Machine Learning helfen Entwicklern und Data Scientists, den gesamten ML-Prozess (mithilfe von Interpretierbarkeit und Fairness) zu verstehen, (mithilfe von Differential Privacy und Confidential ML) zu schützen und (mithilfe von Audit-Trails und Datenblättern) zu kontrollieren.

Verstehen

ML ist mittlerweile tief in unsere täglichen Geschäftsabläufe integriert, sodass Transparenz zu einem entscheidenden Faktor wird. Azure Machine Learning hilft Ihnen nicht nur, das Modellverhalten zu verstehen, sondern auch unfaire Verhaltensweisen zu bewerten und abzuschwächen.

Modellverhalten interpretieren und erklären

Die Funktionen zur Modellinterpretation in Azure Machine Learning werden durch das InterpretML-Toolkit unterstützt und ermöglichen es Entwicklern und Data Scientists, das Modellverhalten zu verstehen und geschäftlichen Stakeholdern und Kunden das Modell zu erklären.

Verwenden Sie die Modellinterpretierbarkeit, um

  • exakte ML-Modelle zu definieren.
  • das Verhalten einer Vielzahl von Modellen, einschließlich Deep Neural Networks, sowohl während der Trainings- als auch der Rückschlussphase zu verstehen.
  • Was-wäre-wenn-Analysen durchzuführen, um die Auswirkungen auf Modellvorhersagen zu bestimmen, wenn Featurewerte geändert werden.

„Azure Machine Learning hilft uns, verantwortungsbewusst KI aufzubauen und Vertrauen bei unseren Kunden zu schaffen. Indem wir die Interpretationsfunktionen für die Aufdeckung von Betrugsfällen im Rahmen unseres Treueprogramms nutzen, können wir Modelle besser verstehen, echte Betrugsfälle identifizieren und die Wahrscheinlichkeit fehlerhafter Ergebnisse verringern.“ 

– Daniel Engberg, Head of Data Analytics and Artificial Intelligence, Scandinavian Airlines

Unfaires Modellverhalten bewerten und abschwächen

Eine Herausforderung beim Aufbau von KI-Systemen besteht heute darin, dass Fairness nicht priorisiert werden kann. Durch die Verwendung von Fairlearn in Kombination mit Azure Machine Learning können Entwickler und Data Scientists spezialisierte Algorithmen nutzen, um für alle Beteiligten gerechtere Ergebnisse zu erzielen.

Verwenden Sie Fairnessfunktionen, um

  • die Modellfairness während des Trainings und der Bereitstellung des Modells zu bewerten.
  • unfaires Verhalten abzuschwächen, während Sie die Modellleistung optimieren.
  • interaktive Visualisierungen zu verwenden, um eine Gruppe empfohlener Modelle zu vergleichen, durch die unfaires Verhalten abgeschwächt wird.

„Azure Machine Learning und die zugehörigen Fairlearn-Funktionen bieten erweiterte Fairness- und Erklärungsfähigkeiten, die uns geholfen haben, vertrauenswürdige KI-Lösungen für unsere Kunden bereitzustellen, das Vertrauen der Stakeholder zu stärken und die Einhaltung gesetzlicher Bestimmungen zu gewährleisten.“  – Alex Mohelsky, EY Canada Partner and Advisory Data, Analytic and AI Leader

Schützen

ML wird zunehmend in Szenarien eingesetzt, die vertrauliche Informationen wie medizinische Patientendaten oder Volkszählungsdaten beinhalten. Aktuelle Praktiken wie das Entfernen oder Maskieren von Daten können sich einschränkend auf ML auswirken. Dieses Problem lässt sich mithilfe von Differential Privacy und Confidential Machine Learning beheben. Mit diesen Verfahren können Unternehmen Lösungen entwickeln und gleichzeitig für den Schutz und die Vertraulichkeit von Daten sorgen.

Die Offenlegung von Daten mit Differential Privacy verhindern

Durch die Verwendung des neuen Differential Privacy-Toolkits mit Azure Machine Learning können Data Science-Teams ML-Lösungen entwickeln, die Datenschutz gewährleisten und gleichzeitig verhindern, dass personenbezogene Daten wiedererkannt werden. Diese Differential Privacy-Verfahren wurden in Zusammenarbeit mit Forschern am Harvard Institute for Quantitative Social Science (IQSS) und der School of Engineering entwickelt.

Differential Privacy schützt vertrauliche Daten wie folgt:

  • Daten werden statistisch verrauscht, um die Offenlegung privater Informationen zu verhindern, ohne dass ein signifikanter Genauigkeitsverlust entsteht.
  • Risiken der Offenlegung von Daten werden gesteuert, indem das von einzelnen Abfragen verwendete Informationsbudget nachverfolgt wird und weitere Abfragen ggf. eingeschränkt werden.

Daten mit Confidential Machine Learning schützen

Unternehmen möchten nicht nur ihre Daten schützen, sondern auch die Sicherheit und Vertraulichkeit aller ML-Assets gewährleisten.

Damit Modelle sicher trainiert und bereitgestellt werden können, stellt Azure Machine Learning leistungsstarke Funktionen für den Schutz von Daten und Netzwerken zur Verfügung. Dazu gehören die Unterstützung von Azure Virtual Networks, Private Link zum Herstellen von Verbindungen mit ML-Arbeitsbereichen, dedizierte Computehosts und kundenseitig verwaltete Schlüssel zur Verschlüsselung übertragener und ruhender Daten.

Aufbauend auf dieser sicheren Grundlage bietet Azure Machine Learning Data Science-Teams bei Microsoft auch die Möglichkeit, Modelle für vertrauliche Daten in einer sicheren Umgebung zu erstellen, ohne die Daten einsehen zu können. Während dieses Verfahrens ist die Vertraulichkeit aller ML-Assets gewährleistet. Dieser Ansatz ist vollständig kompatibel mit Open-Source-ML-Frameworks und einer Vielzahl von Hardwareoptionen. Wir freuen uns, diese Confidential Machine Learning-Funktionen noch in diesem Jahr allen Entwicklern und Data Scientists zur Verfügung stellen zu können.

Kontrolle

Ein verantwortungsvoller ML-Entwicklungsprozess sollte wiederholbar, zuverlässig und für die Stakeholder verpflichtend sein. Azure Machine Learning ermöglicht es Entscheidungsträgern, Prüfern und allen Beteiligten am ML-Lebenszyklus, einen verantwortungsvollen Prozess zu unterstützen.

ML-Assets mit einem Audit-Trail nachverfolgen

Azure Machine Learning bietet Funktionen zum automatischen Nachverfolgen der Datenherkunft und zum Verwalten von ML-Assets in einem Audit-Trail. Details – wie der Ausführungsverlauf, die Trainingsumgebung sowie Daten- und Modellerklärungen – werden alle in einer zentralen Registrierung erfasst, sodass Unternehmen verschiedene Prüfanforderungen erfüllen können.

Die Rechenschaftspflicht mit Modelldatenblättern stärken

Datenblätter bieten eine standardisierte Möglichkeit, ML-Informationen wie Motivationen, Verwendungszwecke und mehr zu dokumentieren. Bei Microsoft haben wir Datenblätter erforscht, um Data Scientists, Prüfern und Entscheidungsträgern Transparenz zu bieten. Wir arbeiten auch mit Partnership on AI und führenden Vertretern aus den Bereichen Industrie, Wissenschaft und Regierung zusammen, um empfohlene Praktiken und einen Prozess namens ABOUT ML zu entwickeln. Die Funktion für benutzerdefinierte Tags in Azure Machine Learning kann heute schon zur Implementierung von Datenblättern verwendet werden. Im Laufe der Zeit werden weitere Funktionen hinzukommen.

Innovationen verantwortungsbewusst umsetzen

Neben den neuen Funktionen in Azure Machine Learning und unseren Open-Source-Tools haben wir auch Grundsätze für die verantwortungsvolle Verwendung von KI entwickelt. Die neuen verantwortungsvollen ML-Innovationen und -Ressourcen sollen Entwickler und Data Scientists dabei unterstützen, zuverlässigere, gerechtere und vertrauenswürdigere ML-Lösungen zu entwickeln. Machen Sie sich noch heute gemeinsam mit uns auf den Weg zu verantwortungsvollem Machine Learning.

Weitere Ressourcen


Bei einer älteren Version dieses Artikels wurde das Differential Privacy-Toolkit als WhiteNoise bezeichnet.