• 4 min read

Nouvelles ressources et nouveaux outils pour permettre aux chefs de produit d’implémenter l’IA de manière responsable

Étant donné que l’IA s’intègre de plus en plus profondément dans nos vies, il nous incombe à tous d’être réfléchis et responsables concernant la façon dont nous l’appliquons aux personnes et à la société. Participez à notre événement numérique « Put Responsible AI into Practice » pour en savoir plus sur ces mises à jour, notamment les nouvelles instructions pour les chefs de produits et un tableau de bord d’IA responsable pour les développeurs et les chercheurs de données.

Étant donné que l’IA s’intègre de plus en plus profondément dans nos vies, il nous incombe à tous d’être réfléchis et responsables concernant la façon dont nous l’appliquons aux personnes et à la société. Une approche régie par des principes d’une IA responsable est essentielle pour chaque organisation, à mesure que cette technologie grandit. Alors que les leaders techniques et produits cherchent à adopter les outils et les pratiques de l’IA responsable, il existe plusieurs défis, notamment l’identification de l’approche la plus adaptée à l’organisation, aux produits et au marché.

Aujourd’hui, lors de notre événement Azure Put Responsible AI into Practice, nous avons le plaisir de partager de nouvelles ressources et de nouveaux outils pour soutenir les clients lors de ce parcours, notamment des instructions pour les chefs de produits co-développées par Microsoft et Boston Consulting Group (BCG). Bien que ces instructions soient distinctes des propres principes et processus d’IA responsable de Microsoft, elles sont destinés à fournir des conseils pour le développement d’une IA responsable au cours du cycle de vie du produit. Nous proposons également un nouveau tableau de bord d’IA responsable pour les développeurs et les chercheurs de données, et nous proposons un aperçu de la façon dont les clients comme Novartis intègrent l’IA responsable à leurs activités.

Présentation des dix recommandations pour les chefs de produit afin d’implémenter l’IA de manière responsable

Bien que la plupart des gens croient en l’importance de l’IA responsable, de nombreuses entreprises ne savent pas vraiment comment franchir ce qui est communément appelé l’« écart avec l’IA responsable » entre les principes et les actions tangibles. En fait, de nombreuses entreprises surestiment leur connaissance de l’IA responsable, en partie parce qu’elles manquent de clarté sur la manière de rendre leurs principes opérationnels.

Pour vous aider à répondre à ce besoin, nous avons conclu un partenariat avec BCG pour développer « Dix instructions pour les chefs de produit afin d’implémenter l’IA de façon responsable », une nouvelle ressource permettant de fournir des conseils clairs et actionnables aux dirigeants techniques pour guider les équipes de produits au fur et à mesure qu’elles évaluent, conçoivent et valident des systèmes d’IA.

« Les principes d’une IA éthique sont nécessaires, mais pas suffisants. Les entreprises doivent aller plus loin pour créer des évolutions tangibles dans la conception et la création des produits d’IA », affirme Steve Moulins, Chief AI Ethics Officer, BCG GAMMA. « La ressource sur laquelle nous avons travaillé avec Microsoft permettra aux chefs de produits de guider leurs équipes vers un développement responsable, en identifiant et atténuant de manière proactive les risques et les menaces. »

Les dix instructions sont regroupées en trois phases :

  1. Évaluer et préparer : évaluer les avantages du produit, la technologie, les risques potentiels et l’équipe.
  2. Concevoir, créer et documenter : passer en revue les impacts, les considérations uniques et la pratique de documentation.
  3. Valider et prendre en charge : sélectionner les procédures de test et le support pour vous assurer que les produits fonctionnent comme prévu.

Avec cette nouvelle ressource, nous sommes impatients de voir d’autres entreprises des différents secteurs d’activité qui intègrent l’IA au sein de leur propre organisation.

Lancement d’un nouveau tableau de bord d’IA responsable pour les développeurs et les scientifiques de données

La mise en place de principes éthiques tels que l’équité et la transparence au sein des systèmes d’IA est l’un des plus grands obstacles à la mise à l’échelle de l’IA. C’est pourquoi nos équipes d’ingénierie ont intégré des fonctionnalités d’IA responsable dans les services Azure AI, tels que Azure Machine Learning. Ces fonctionnalités sont conçues pour aider les entreprises à créer leurs systèmes d’IA avec de l’équité, de la confidentialité, de la sécurité et d’autres priorités en matière d’IA responsable.

Aujourd’hui, nous sommes ravis d’introduire le tableau de bord d’IA responsable pour aider les développeurs et les scientifiques de données à comprendre, protéger et contrôler plus facilement les données et les modèles d’IA. Ce tableau de bord inclut une collection de fonctionnalités d’IA responsable telles que l’interprétabilité, l’analyse des erreurs, l’analyse contrefactuelle et l’inférence causale. Maintenant à la disposition générale en open source et s’exécutant sur Azure Machine Learning, le tableau de bord IA responsable rassemble les outils d’IA les plus utilisés dans un flux de travail unique et un canevas visuel, ce qui facilite l’identification, le diagnostic et l’atténuation des erreurs.

Figure 1 : tableau de bord IA responsable

Figure 1 : Tableau de bord IA responsable

L’IA responsable en action

Les organisations des différents secteurs travaillent déjà avec les fonctionnalités d’IA d’Azure, dont de nombreux outils d’IA qui font partie du tableau de bord IA responsable.

Il s’agit par exemple de Novartis, une société de médicaments ciblés, qui a annoncé plus tôt cette année ses huit principes d’utilisation éthique de l’IA. Novartis incorpore déjà l’IA dans le workflow de ses associés et a de nombreuses instances dans la chaîne de valeurs dans laquelle l’IA est utilisée dans les opérations quotidiennes. L’IA jouant un rôle essentiel dans l’activation de sa stratégie numérique, l’IA responsable de Microsoft est une approche intégrale qui permet de s’assurer que les modèles d’IA sont générés et utilisés de manière responsable.

« Ce tableau de bord d’IA permet à nos équipes d’évaluer la précision et la fiabilité des systèmes d’IA, alignés sur notre infrastructure pour une utilisation éthique de l’IA, afin de s’assurer qu’ils sont adaptés au contexte et à l’objectif prévus et de savoir comment les intégrer au mieux avec notre intelligence humaine. »— Nimit Jain, directeur Science des données, Novartis

Un autre exemple est Philips, une grande société de technologie médicale, qui utilise Azure et le Fairlearn Toolkit pour améliorer l’équité globale de leurs modèles Machine Learning et atténuer les biais, ce qui permet de mieux gérer le bien-être et les soins apportés aux patients. Par ailleurs, Scandinavian Airlines, client Azure Machine Learning, s’appuie sur l’interprétabilité de leur unité de détection des fraudes pour comprendre les prédictions de modèle et améliorer la façon dont elles identifient les modèles de comportement suspect.

Vous avez manqué l’événement numérique ? Télécharger les instructions et l’outil

Même si nous sommes tous encore en phase de découverte, nous pensons que ces nouvelles ressources nous aideront à effectuer des actions réfléchies pour l’implémentation de l’IA responsable. Si vous avez manqué l’événement, pensez à visionner l’enregistrement et à télécharger les ressources disponibles. En collaboration avec Microsoft, nous allons mettre en pratique l’IA responsable.

En savoir plus