Saltar al contenido principal
YA DISPONIBLE

Ya hay disponibles nuevas características para Azure Machine Learning

Fecha de publicación: 06 mayo, 2019

Características incluidas:

  • Interpretabilidad de modelos. La interpretabilidad de Machine Learning permite a los científicos de datos explicar modelos de Machine Learning de forma global en todos los datos o de forma local en un punto de datos específico, usando tecnologías de vanguardia de un modo escalable y fácil de usar.  La interpretabilidad de Machine Learning incorpora tecnologías desarrolladas por Microsoft y bibliotecas probadas de terceros (por ejemplo, SHAP y LIME). El SDK crea una API común entre la bibliotecas integradas e incorpora los servicios de Azure Machine Learning. Con este SDK, puede explicar modelos de Machine Learning de forma global en todos los datos o de forma local en un punto de datos específico usando tecnologías vanguardistas de un modo escalable y fácil de usar.
  • Previsión con AutomatedML, avances de Automated ML y AutomatedML en Databricks, CosmosDB y HDInsight.
    • ML automatizado automatiza partes del flujo de trabajo de ML. De este modo, reduce el tiempo que se tarda en crear modelos de ML y libera a los científicos de datos para que se puedan dedicar al trabajo importante, al tiempo que simplifica ML y lo pone al alcance de una audiencia más amplia. Hemos anunciado:
    • Previsión ya está disponible con carácter general con nuevas características.
    • Integración con Databricks, SQL, CosmosDB y HDInsight.
    • Explicabilidad ya está disponible con carácter general, con un rendimiento mejorado.
  • Integración con .NET. El lanzamiento de ML.NET 1.0 es el primer hito importante de un gran recorrido en el campo del código abierto que comenzó en mayo de 2018 con el lanzamiento de ML.NET 0.1 como código abierto. Desde entonces, hemos publicado versiones mensualmente, 12 versiones preliminares y esta versión 1.0 final. ML.NET es un marco de Machine Learning multiplataforma de código abierto para desarrolladores de .NET. Con ML.NET, los desarrolladores pueden aprovechar sus herramientas y conocimientos actuales para desarrollar e incorporar inteligencia artificial personalizada en sus aplicaciones, con la creación de modelos de Machine Learning personalizados para escenarios comunes, como análisis de sentimiento, recomendaciones, clasificación de imágenes, etc. Utilice NimbusML, el enlace de Python para ML.NET, para usar ML.NET con Azure Machine Learning. NimbusML permite a los científicos de datos usar ML.NET para entrenar modelos en Azure Machine Learning o en otro lugar donde utilicen Python. El modelo de Machine Learning entrenado se puede usar fácilmente en una aplicación de .NET con el motor de predicción de ML.NET, como en este ejemplo.
  • Funcionalidad de primera clase de Azure DevOps para experimentos, canalizaciones y registro, validación e implementación de modelos. Azure Machine Learning tiene el objetivo de simplificar el ciclo de vida completo del aprendizaje automático, que incluye la preparación de los datos y el entrenamiento, el empaquetado, la validación y la implementación de modelos. Para habilitar esto, vamos a lanzar los siguientes servicios:
    • Servicios Environment, Code y Data versioning , integrados en Azure ML Audit Trail.
    • La extensión de Azure DevOps para Machine Learning y la CLI de Azure ML.
    • Una experiencia simplificada para validar e implementar modelos de ML. Microsoft le permite adoptar ML con rapidez agilizando el tiempo necesario para obtener una solución de ML nativa en la nube y lista para producción. La preparación para producción se define como:
      • Canalizaciones de entrenamiento de modelos reproducibles.
      • Validación demostrable, generación del perfil y seguimiento del modelo antes de su lanzamiento.
      • Distribución de nivel empresarial y observabilidad integrada, incluido todo lo necesario en cumplimiento de todas las directrices de seguridad que correspondan. 
  • ONNX Runtime con TensorRT. Estamos encantados de anunciar la disponibilidad general del proveedor de ejecución NVIDIA TensorRT en ONNX Runtime, que permite a los desarrolladores aprovechar fácilmente una aceleración de GPU extraordinaria con independencia del marco que elijan. Los desarrolladores pueden agilizar la inferencia de modelos de ONNX, que se puede exportar o convertir desde PyTorch, TensorFlow y otros muchos marcos populares.  ONNX Runtime junto con el proveedor de ejecución TensorRT agiliza la inferencia de modelos de aprendizaje profundo en hardware de NVIDIA. Esto permite a los desarrolladores ejecutar modelos de ONNX en diferentes tipos de hardware y crear aplicaciones con la flexibilidad de dirigirlas a diferentes configuraciones de hardware. La arquitectura extrae los detalles de las bibliotecas específicas del hardware que son fundamentales para optimizar la ejecución de redes neuronales profundas.
  • Modelos acelerados mediante hardware basados en FPGA. Las matrices FPGA son una opción de inferencia de aprendizaje automático basada en Project Brainwave, una arquitectura de hardware de Microsoft. Los científicos de datos y desarrolladores pueden usar FPGA para agilizar los cálculos de inteligencia artificial en tiempo real. Estos modelos acelerados mediante hardware ya están disponibles con carácter general en la nube, junto con una versión preliminar de modelos implementados en Data Box Edge. Las matrices FPGA ofrecen rendimiento, flexibilidad y escala, y están disponibles solo a través de Azure Machine Learning. Con ellas, se puede conseguir baja latencia para las solicitudes de inferencia en tiempo real. De este modo, se mitiga la necesidad de solicitudes asincrónicas (procesamiento por lotes).

Más información

  • Azure Machine Learning
  • Features

Productos relacionados