Créer une intelligence artificielle digne de confiance avec un ML responsable

Publié le 19 mai, 2020

Corporate Vice President, Azure AI

Étant donné que l’IA a pris une place considérable dans l’ensemble des secteurs et applications, il devient primordial de garantir une utilisation sécurisée et responsable de l’IA. Les déploiements de l’IA sont de plus en plus affectés par le manque de confiance des clients dans la transparence, la responsabilité et l’équité de ces solutions. Microsoft s’engage à améliorer l’intelligence artificielle (IA) et le Machine Learning (ML) en suivant des principes qui placent les individus en premier, ainsi que les outils permettant de concrétiser cette engagement.

En collaboration avec le Comité Aether et ses groupes de travail, nous apportons les dernières recherches en matière d’IA responsable dans Azure. Voyons comment les nouvelles fonctionnalités de ML responsable dans Azure Machine Learning et nos kits de ressources open source permettent aux scientifiques et aux développeurs de données de comprendre les modèles ML, de protéger les personnes et leurs données et de contrôler le processus ML de bout en bout.

Les fonctionnalités de ML responsable dans Azure Machine Learning aident les développeurs et les chercheurs de données à comprendre (avec explicabilité et impartialité), à protéger (avec la confidentialité différentielle et le ML confidentiel) et à contrôler (avec les pistes d’audit et les fiches techniques) le processus ML de bout en bout.

Comprendre

Comme le ML est de plus en plus profondément intégré à nos processus métier quotidiens, la transparence est primordiale. Azure Machine Learning vous permet de comprendre le comportement des modèles et aussi d’évaluer et d’atténuer l’inéquité.

Interpréter et expliquer le comportement des modèles

Les fonctionnalités d’explicabilité des modèles dans Azure Machine Learning, soutenues par le kit de ressources InterpretML, permettent aux développeurs et aux scientifiques de données de comprendre le comportement des modèles et d’expliquer les modèles aux clients et aux parties prenantes.

Utiliser l’explicabilité du modèle pour :

  • Créer des modèles ML précis.
  • Comprendre le comportement d’un large éventail de modèles, notamment les réseaux neuronaux profonds, pendant les phases d’entraînement et d’inférence.
  • Réaliser une analyse des scénarios pour déterminer l’impact sur les prédictions de modèle lorsque les valeurs des caractéristiques sont modifiées.

« Azure Machine Learning nous aide à créer une IA de manière responsable et à créer des relations de confiance avec nos clients. En utilisant les fonctionnalités d’explicabilité dans les efforts de détection des fraudes pour notre programme de fidélisation, nous sommes en mesure de mieux comprendre les modèles, d’identifier les cas authentiques de fraude et de réduire le risque de résultats erronés. »

- Daniel Engberg, responsable de l’analytique données et de l’intelligence artificielle, Scandinavian Airlines

Évaluer et atténuer l’inéquité des modèles

Une des difficultés rencontrées lors de la création de systèmes d’IA aujourd’hui est l’impossibilité de donner la priorité à l’équité. En utilisant Fairlearn avec Azure Machine Learning, les développeurs et les chercheurs de données peuvent exploiter des algorithmes spécialisés pour garantir des résultats plus justes pour tout le monde.

Utilisez les fonctionnalités d’équité pour :

  • Évaluer l’équité d’un modèle au cours de son entraînement et de son déploiement.
  • Atténuer l’inéquité tout en optimisant les performances du modèle.
  • Utiliser des visualisations interactives pour comparer un ensemble de modèles recommandés qui limitent l’inéquité.

« Azure Machine Learning et ses fonctionnalités Fairlearn offrent une équité et une transparence avancées qui nous ont aidé à déployer des solutions d’IA fiables pour nos clients, tout en boostant la confiance des parties prenantes et la conformité réglementaire. » - Alex Mohelsky, EY Canada Partner and Advisory Data, Analytic and AI Leader

Protection

Le ML est de plus en plus utilisé dans des scénarios impliquant des informations sensibles telles que des données médicales ou de recensement. Les pratiques actuelles, telles que la censure ou le masquage des données, peuvent être restrictives pour le ML. Pour résoudre ce problème, des techniques de Machine Learning confidentiel et de confidentialité différentielle peuvent être utilisées pour aider les organisations à créer des solutions tout en préservant la confidentialité des données.

Empêcher l’exposition des données avec la confidentialité différentielle

En utilisant le nouveau kit de ressources de confidentialité différentielle avec Azure Machine Learning, les équipes de science des données peuvent créer des solutions ML qui préservent la confidentialité et empêchent la ré-identification des données d’un individu. Ces techniques de confidentialité différentielle ont été développées en collaboration avec des chercheurs de l’Institut pour les sciences sociales quantitatives (IQSS) et de l’école d’ingénierie de Harvard.

La confidentialité différentielle protège les données sensibles via les moyens suivants :

  • Injection de bruit statistique dans les données, afin d’éviter la divulgation d’informations privées, sans perte significative de précision.
  • Gestion des risques d’exposition en effectuant le suivi du budget d’informations utilisé par les requêtes individuelles et en limitant les requêtes supplémentaires de façon appropriée.

Protection des données avec le Machine Learning confidentiel

En plus de la confidentialité des données, les organisations cherchent à garantir la sécurité et la confidentialité de l’ensemble des ressources ML.

Pour permettre un entraînement et un déploiement sécurisés du modèle, Azure Machine Learning fournit un ensemble puissant de fonctionnalités de protection des données et des réseaux. Cela inclut la prise en charge des réseaux virtuels Azure, des liaisons privées pour se connecter à des espaces de travail ML, des hôtes de calcul dédiés et des clés gérées par le client pour le chiffrement en transit et au repos.

En s’appuyant sur cette base sécurisée, Azure Machine Learning permet également aux équipes de science des données de Microsoft de créer des modèles s’appuyant sur des données confidentielles dans un environnement sécurisé, sans que les données soient visibles. La confidentialité de toutes les ressources ML est maintenue au cours de ce processus. Cette approche est entièrement compatible avec les infrastructures ML open source et un large éventail d’options matérielles. Nous sommes ravis de pouvoir apporter plus tard cette année ces fonctionnalités de Machine Learning confidentiel à tous les développeurs et scientifiques de données.

Contrôle

Pour créer de façon responsable, le processus de développement ML doit être reproductible, fiable et engager la responsabilité des parties prenantes. Azure Machine Learning permet aux décideurs, aux auditeurs et à tous les membres du cycle de vie ML de prendre en charge un processus responsable.

Suivre les ressources ML à l’aide d’une piste d’audit

Azure Machine Learning offre des fonctionnalités permettant de suivre automatiquement la traçabilité et de conserver une piste d’audit des ressources ML. Les détails (tels que l’historique des exécutions, l’environnement d’entraînement et les explications relatives aux données et aux modèles) sont tous capturés dans un registre central, ce qui permet aux organisations de répondre aux différents besoins d’audit.

Améliorer la responsabilité avec les fiches techniques de modèle

Les fiches techniques fournissent une méthode standardisée pour documenter les informations ML, telles que les motivations, les utilisations prévues et bien plus encore. Chez Microsoft, nous avons mené des recherches sur les fiches techniques afin de fournir de la transparence aux scientifiques de données, aux auditeurs et aux décideurs. Nous travaillons également avec Partnership on AI et des leaders du secteur, des universités et du secteur public pour développer des pratiques recommandées et un processus appelé ABOUT ML. La fonctionnalité de balises personnalisées dans Azure Machine Learning peut être utilisée pour implémenter des fiches techniques dès aujourd’hui. Nous publierons par ailleurs des fonctionnalités supplémentaires à l’avenir.

Commencer à innover de manière responsable

Outre les nouvelles fonctionnalités d’Azure Machine Learning et de nos outils open source, nous avons également développé des principes pour l’utilisation responsable de l’IA. Les nouvelles ressources et innovations en ML responsable sont conçues pour aider les développeurs et les scientifiques des données à créer un ML plus fiable, plus juste et digne de confiance. Rejoignez-nous dès aujourd’hui et adoptez le ML responsable.

Ressources supplémentaires


Une version précédente de cet article appelait WhiteNoise le kit de ressources de confidentialité différentielle.