A medida que la inteligencia artificial se hace más presente en nuestra vida diaria, nos corresponde a todos ser cuidadosos y responsables en la forma de aplicarla para beneficiar a las personas y a la sociedad. Conforme esta tecnología evolucione, será fundamental que todas las organizaciones utilicen un enfoque de principios para lograr una inteligencia artificial responsable. En este contexto, en el que los directores técnicos y de productos buscan adoptar herramientas y prácticas de inteligencia artificial responsable, encuentran varias dificultades, como identificar el enfoque más adecuado para sus organizaciones, productos y mercado.
Hoy, en nuestro evento de Azure Poner en práctica una inteligencia artificial responsable, nos complace compartir nuevos recursos y herramientas para ayudar a los clientes en este proceso, incluidas directrices para directores de productos desarrolladas conjuntamente por Microsoft y Boston Consulting Group (BCG). Aunque estas directrices son independientes de los propios principios y procesos de inteligencia artificial responsable de Microsoft, están diseñadas para proporcionar instrucciones para el desarrollo de inteligencia artificial responsable a lo largo del ciclo de vida de los productos. También presentaremos un nuevo panel de inteligencia artificial responsable para científicos de datos y desarrolladores, y ofreceremos ejemplos de clientes, como Novartis, que están utilizando una inteligencia artificial responsable y cómo lo hacen.
Diez directrices para que los directores de productos implementen inteligencia artificial de forma responsable
Aunque la gran mayoría de las personas cree en la importancia de la inteligencia artificial responsable, muchas empresas no tienen claro cómo solucionar lo que se conoce normalmente como la “brecha de la inteligencia artificial responsable” entre los principios y las acciones tangibles. De hecho, muchas empresas realmente sobrestiman su madurez en cuanto a IA responsable, en parte porque carecen de claridad sobre cómo poner en práctica sus principios.
Con el fin de abordar esta necesidad, nos asociamos con BCG para desarrollar “Diez directrices para que los directores de productos implementen inteligencia artificial de forma responsable”, un nuevo recurso que proporciona instrucciones claras y prácticas para que los directores técnicos guíen a los equipos de productos a medida que evalúan, diseñan y validan sistemas de inteligencia artificial responsable en sus organizaciones.
“Los principios éticos para la inteligencia artificial son necesarios, pero no suficientes. Las empresas deben ir más allá para hacer cambios tangibles en la forma en la que diseñan y crean productos de inteligencia artificial”, afirma Steve Mills, director de ética de inteligencia artificial, BCG GAMMA. “El recurso que hemos creado en colaboración con Microsoft permitirá a los directores de productos guiar a sus equipos hacia un desarrollo responsable, identificando y mitigando los riesgos y las amenazas de forma proactiva”.
Las diez directrices se agrupan en tres fases:
- Evaluación y preparación: evaluar las ventajas del producto, la tecnología, los posibles riesgos y el equipo.
- Diseño, creación y documentación: revisar el impacto, consideraciones únicas y el proceso de documentación.
- Validación y soporte técnico: seleccionar los procedimientos de prueba y el soporte técnico para asegurarse de que los productos funcionan según lo previsto.
Con este nuevo recurso, confiamos en que serán más las empresas de todos los sectores que adopten una inteligencia artificial responsable en sus organizaciones.
Lanzamiento de un nuevo panel de inteligencia artificial responsable para científicos de datos y desarrolladores
La puesta en práctica de principios éticos, como la equidad y la transparencia, en los sistemas de inteligencia artificial es uno de los mayores obstáculos para escalar la inteligencia artificial, motivo por el que nuestros equipos de ingeniería han integrado características de inteligencia artificial responsable en los servicios de Azure AI, como Azure Machine Learning. Estas características están diseñadas para ayudar a las empresas a crear sus sistemas de inteligencia artificial con equidad, privacidad, seguridad y otras prioridades de la inteligencia artificial responsable.
Hoy, nos complace presentar el panel Responsible AI (RAI) para ayudar a los científicos de datos y desarrolladores a conocer, proteger y controlar más fácilmente los datos y los modelos de inteligencia artificial. Este panel incluye una colección de características de inteligencia artificial responsable, como la interpretabilidad, el análisis de errores y la inferencia contrafactual y casual. El panel RAI, que ya está disponible con carácter general como código abierto y que se ejecuta en Azure Machine Learning, reúne las herramientas de inteligencia artificial responsable más usadas en un único flujo de trabajo y lienzo visual que facilita la identificación, el diagnóstico y la mitigación de errores.
Figura 1: Panel Responsible AI
Puesta en práctica de una inteligencia artificial responsable
Organizaciones de todos los sectores ya están trabajando con las características de inteligencia artificial de Azure, incluidas muchas de las herramientas de inteligencia artificial responsable que forman parte del panel Responsible AI.
Un ejemplo es la reconocida empresa farmacéutica Novartis, que a principios de este año anunció sus ocho principios de uso ético de la IA. Novartis ya ha incorporado la inteligencia artificial al flujo de trabajo de sus asociados y tiene muchas instancias en la cadena de valor en las que se usa la inteligencia artificial en las operaciones diarias. Con la inteligencia artificial desempeñando un papel tan importante en la implementación de su estrategia digital, la inteligencia artificial responsable de Microsoft es una pieza integral para garantizar que los modelos de IA se creen y se usen de forma responsable.
“Este panel de inteligencia artificial permite a nuestros equipos evaluar la precisión y la confiabilidad de los sistemas de inteligencia artificial, en línea con nuestro marco de uso ético de la inteligencia artificial, para garantizar que sean adecuados para el contexto y el propósito previstos, y cómo integrarlos mejor con nuestra inteligencia humana”. —Nimit Jain, director de ciencia de datos, Novartis
Otro ejemplo es Philips, una importante empresa de tecnológica para productos sanitarios que utiliza Azure y el kit de herramientas Fairlearn para mejorar la equidad de sus modelos de aprendizaje automático y mitigar el sesgo, lo que permite administrar mejor el bienestar y el cuidado de los pacientes. Y Scandinavian Airlines, un cliente de Azure Machine Learning, se basa en la interpretabilidad en su unidad de detección de fraudes para comprender las predicciones de los modelos y mejorar la forma en la que identifican patrones de comportamiento sospechoso.
¿Se perdió el evento digital? Descargue las instrucciones y la herramienta
Aunque todavía estamos haciendo este camino, confiamos en que estos nuevos recursos nos ayuden a avanzar de manera reflexiva hacia la implementación de una inteligencia artificial responsable. Si se perdió el evento, no deje de ver la grabación y descargar los recursos disponibles. Junto con Microsoft, pongamos en práctica una inteligencia artificial responsable.
Más información
- Evento Poner en práctica una inteligencia artificial responsable
- Diez directrices para la implementación de inteligencia artificial por parte de los líderes de productos de forma responsable
- Panel Responsible AI
- Entrada de blog Creación de una IA responsable desde la investigación hasta la práctica
- Aprendizaje automático responsable
- Azure AI