Cree IA de confianza con un aprendizaje automático responsable

Publicado el 19 mayo, 2020

Corporate Vice President, Azure AI

Dado que la inteligencia artificial está ocupando un lugar cada vez más importante en todos los sectores y aplicaciones, se hace imprescindible asegurar un uso seguro y responsable de la misma. La falta de confianza del cliente en la transparencia, la responsabilidad y la imparcialidad de estas soluciones influye cada vez más en las implementaciones de IA. Microsoft está comprometido con el avance de la AI y del aprendizaje automático (ML), según unos principios por los que las personas son la máxima prioridad y unas herramientas que permiten poner esto en práctica.

En colaboración con el Comité Aether y sus grupos de trabajo, estamos incorporando a Azure los últimos estudios sobre una IA responsable. Veamos cómo las nuevas funcionalidades del aprendizaje automático responsable de Azure Machine Learning y nuestros kits de herramientas de código abierto capacitan a los científicos de datos y desarrolladores para entender los modelos de ML, proteger a las personas y sus datos y controlar el proceso de ML de un extremo a otro.

Las funcionalidades del aprendizaje automático responsable de Azure Machine Learning ayudan a los desarrolladores y científicos de datos a comprender (con capacidad de interpretación e imparcialidad), proteger (con privacidad diferencial y ML confidencial) y controlar (con registros de auditoría y hojas de datos) el proceso de ML de un extremo a otro.

Comprensión

A medida que el ML se integra profundamente en nuestros procesos empresariales diarios, la transparencia es fundamental. Azure Machine Learning ayuda no solo a comprender el comportamiento de los modelos, sino también a evaluar y mitigar la parcialidad.

Interpretación y explicación del comportamiento de los modelos

Las funcionalidades de la capacidad de interpretación de modelos de Azure Machine Learning, basadas en el conjunto de herramientas InterpretML, permiten a los desarrolladores y científicos de datos comprender el comportamiento de los modelos y proporcionar explicaciones sobre ellos a los clientes y a las partes interesadas del negocio.

Use la capacidad de interpretación de modelos para:

  • Crear modelos de ML precisos.
  • Comprender el comportamiento de una amplia variedad de modelos, incluidas las redes neuronales profundas, durante las fases de aprendizaje e inferencia.
  • Realizar análisis condicionales para determinar el impacto en las predicciones de modelos cuando se cambian los valores de las características.

"Azure Machine Learning nos ayuda a crear AI de forma responsable y a inspirar confianza a nuestros clientes. Gracias a las funcionalidades de capacidad de interpretación en el trabajo de detección de fraudes para nuestro programa de fidelidad, podremos entender mejor los modelos, identificar los casos de fraude auténticos y reducir la posibilidad de que se produzcan resultados erróneos". 

—Daniel Engberg, Jefe de análisis de datos e inteligencia artificial, Scandinavian Airlines

Evaluación y mitigación de la parcialidad de los modelos

Hoy en día, un reto con la creación de sistemas de inteligencia artificial es la incapacidad de dar prioridad a la imparcialidad. Al usar Fairlearn con Azure Machine Learning, los desarrolladores y científicos de datos pueden aprovechar algoritmos especializados para garantizar resultados más imparciales para todo el mundo.

Use las funcionalidades de imparcialidad para:

  • Evaluar la parcialidad de los modelos durante el aprendizaje y la implementación de estos.
  • Mitigar la parcialidad al mismo tiempo que se optimiza el rendimiento de los modelos.
  • Usar visualizaciones interactivas para comparar un conjunto de modelos recomendados que mitigan la parcialidad.

“Azure Machine Learning y sus funcionalidades con Fairlearn ofrecen una imparcialidad y capacidad de explicación avanzadas que nos han ayudado a implementar soluciones de IA de confianza para nuestros clientes, fomentando así el cumplimiento normativo y la confianza de las partes interesadas”. —Alex Mohelsky, Jefe de IA, análisis y datos de consultoría y asociado de EY Canada

Protección

ML se usa cada vez más en escenarios que engloban información confidencial, como datos médicos censales y de pacientes. Las prácticas actuales, como la redacción o el enmascaramiento de datos, pueden estar limitando el ML. Para solucionar este problema, se pueden usar técnicas de privacidad diferencial y aprendizaje automático confidencial para ayudar a las organizaciones a crear soluciones al mismo tiempo que se mantiene la confidencialidad y privacidad de los datos.

Evitar la exposición de los datos con la privacidad diferencial

Al usar el nuevo kit de herramientas de privacidad diferencial con Azure Machine Learning, los equipos de ciencia de datos pueden crear soluciones de ML que preserven la privacidad y ayuden a evitar la reidentificación de los datos de una persona. Estas técnicas de privacidad diferencial se han desarrollado en colaboración con investigadores del Instituto de Ciencias Sociales Cuantitativas (IQSS) y la Escuela de Ingeniería de Harvard.

La privacidad diferencial protege la información confidencial con:

  • Inyección de ruido estadístico en los datos para ayudar a evitar la divulgación de información privada, sin una pérdida de precisión significativa.
  • La administración del riesgo de exposición con un seguimiento del presupuesto para información utilizado en consultas individuales y con una mayor limitación de las consultas, según proceda.

Protección de datos con el aprendizaje automático confidencial

Además de la privacidad de los datos, las organizaciones buscan garantizar la seguridad y confidencialidad de todos los recursos de ML.

Para habilitar la implementación y el aprendizaje de modelos seguros, Azure Machine Learning proporciona un sólido conjunto de funcionalidades de protección de datos y redes. Esto incluye compatibilidad con las redes virtuales de Azure, vínculos privados para conectarse a áreas de trabajo de aprendizaje automático, hosts de proceso dedicados y claves administradas de cliente para el cifrado en tránsito y en reposo.

Sobre esta base segura, Azure Machine Learning también permite a los equipos de ciencia de datos de Microsoft crear modelos con datos confidenciales en un entorno seguro, sin la posibilidad de ver los datos. Se preserva la confidencialidad de todos los recursos de aprendizaje automático durante este proceso. Este enfoque es totalmente compatible con los marcos de aprendizaje automático de código abierto y una amplia gama de opciones de hardware. Nos complace ofrecer estas funcionalidades de aprendizaje automático confidencial a todos los desarrolladores y científicos de datos a finales de este año.

Control

Para compilar de manera responsable, el proceso de desarrollo de ML debe ser repetible, confiable y con la responsabilidad de las partes interesadas. Azure Machine Learning permite que los responsables de toma de decisiones, los auditores y todos los miembros del ciclo de vida del ML respalden un proceso responsable.

Seguimiento de los recursos de ML mediante registros de auditoría

Azure Machine Learning proporciona funcionalidades para realizar un seguimiento automático del linaje y mantener un registro de auditoría de los recursos de ML. Los detalles, como el historial de ejecución, el entorno de aprendizaje y las explicaciones de datos y modelos, se capturan en un registro central, lo que permite a las organizaciones cumplir varios requisitos de auditoría.

Aumento de la responsabilidad con hojas de datos de los modelos

Las hojas de datos proporcionan una forma estandarizada de documentar la información de ML, como motivaciones, usos previstos y mucho más. En Microsoft, realizamos un estudio sobre las hojas de datos para proporcionar transparencia a los científicos de datos, auditores y responsables de toma de decisiones. También colaboramos con Partnership on AI y con líderes de todo el sector, el mundo académico y la administración pública para desarrollar prácticas recomendadas y un proceso llamado ACERCA DE ML. La funcionalidad de las etiquetas personalizadas de Azure Machine Learning puede usarse para implementar hojas de datos actualmente y, con el tiempo, lanzaremos características adicionales.

Empezar a innovar con responsabilidad

Además de las nuevas funcionalidades de Azure Machine Learning y de nuestras herramientas de código abierto, también contamos con principios desarrollados para el uso responsable de la IA. Las innovaciones y los recursos del nuevo aprendizaje automático responsable están diseñados para ayudar a los desarrolladores y científicos de datos a crear un aprendizaje automático más confiable y parcial. Únase a nosotros hoy mismo y empiece su trayectoria con un aprendizaje automático responsable.

Recursos adicionales


En una versión anterior de este artículo, se hacía referencia al kit de herramientas de privacidad diferencial como WhiteNoise.