Passer au contenu principal
DISPONIBLE IMMÉDIATEMENT

De nouvelles fonctionnalités pour Microsoft Azure Learning sont désormais disponibles

Date de publication : 06 mai, 2019

Voici quelques fonctionnalités :

  • Interprétabilité de modèles - L’interprétabilité Machine Learning permet aux scientifiques des données d’expliquer les modèles Machine Learning globalement sur toutes les données, ou localement sur un point de données spécifique à l'aide de technologies de pointe, de manière simple et évolutive.  L'interprétabilité Machine Learning intègre des technologies développées par Microsoft, ainsi que des bibliothèques tierces éprouvées (par exemple, SHAP et LIME). Le kit de développement logiciel (SDK) crée une API commune à toutes les bibliothèques intégrées et intègre les services Azure Machine Learning. À l'aide de ce kit de développement logiciel (SDK), vous pouvez expliquer les modèles Machine Learning globalement sur toutes les données, ou localement sur un point de données spécifique à l'aide de technologies de pointe, de manière simple et évolutive.
  • Prévisions via AutomatedML, avancées en matière de ML automatisé et AutomatedML pris en charge sur Databricks, CosmosDB et HDInsight –
    • Automated ML automatise partiellement le workflow ML, ce qui réduit le temps de création de modèles ML, libère les scientifiques des données pour leurs tâches importantes, tout en simplifiant le Machine Learning et en l'ouvrant à un plus large public. Nous avons annoncé :
    • Prévisions est désormais disponible généralement et propose de nouvelles fonctionnalités
    • Intégrations Databricks, SQL, CosmosDB et HDInsight
    • Explicabilité est désormais disponible généralement, avec un niveau de performance amélioré
  • Intégration .NET La version ML.NET 1.0 est la première étape importante d'un processus d'ouverture qui a commencé en mai 2018, avec la publication de ML.NET 0.1 en open source. Depuis, nous avons publié 12 préversions, ainsi que cette version 1.0 finale. ML.NET est une infrastructure Machine Learning open source et multiplateforme destinée aux développeurs .NET. Avec ML.NET, les développeurs peuvent exploiter leurs outils et compétences existants pour développer et infuser une intelligence artificielle personnalisée dans leurs applications en créant des modèles Machine Learning personnalisés destinés à des scénarios courants tels que l’analyse des sentiments, la suggestion, la classification d'images, etc. Vous pouvez recourir à NimbusML, les liaisons Python ML.NET, pour utiliser ML.NET avec Azure Machine Learning. NimbusML permet aux scientifiques des données d'utiliser ML.NET pour former des modèles dans Azure Machine Learning ou partout où ils utilisent Python. Le modèle Machine Learning formé peut facilement être utilisé dans une application .NET ML.NET PredictionEngine, comme dans cet exemple.
  • Prise en charge Azure DevOps de première classe pour les expériences, les pipelines, l'inscription, la validation et le déploiement de modèles : Azure Machine Learning a pour objectif de simplifier de bout en bout le cycle de vie du Machine Learning, notamment en termes de préparation des données, formation, empaquetage, validation et modèle de déploiement. Pour ce faire, nous lançons les services suivants :
    • Services de contrôle de version d'environnement, de code et de données intégrés à la piste d'audit Azure ML
    • Extension Azure DevOps pour Machine Learning et Azure ML CLI
    • Expérience simplifiée de validation et de déploiement de modèles ML. Microsoft vous permet d’adopter rapidement ML en accélérant la mise au point d’une solution ML native cloud et prête à la production. La préparation à la production se définit comme suit :
      • Pipelines de formation de modèles reproductibles
      • Validation, profilage et suivi du modèle avant publication
      • Déploiement de classe entreprise et observabilité intégrée, incluant toutes les directives de sécurité appropriées 
  • ONNX Runtime avec TensorRT : Nous sommes ravis d’annoncer la mise à disposition générale d'ONNX Runtime, le fournisseur d’exécution de NVIDIA TensorRT dans ONNX Runtime, pour permettre aux développeurs de facilement exploiter l’accélération de GPU quelle que soit leur infrastructure. Les développeurs ont la possibilité d'accélérer l'inférence des modèles ONNX, qui peuvent être exportés ou convertis à partir de PyTorch, TensorFlow et de nombreuses autres infrastructures populaires.  ONNX Runtime, associé à son fournisseur d’exécution TensorRT, accélère l'inférence de modèles Deep Learning sur du matériel NVIDIA. Les développeurs peuvent ainsi exécuter des modèles ONNX sur différents types de matériel et créer des applications avec la flexibilité requise pour cibler différentes configurations matérielles. L'architecture extrait les détails des bibliothèques spécifiques au matériel et essentielles pour optimiser l'exécution des réseaux neuronaux profonds.
  • Modèles accélérés matériellement FPGA : Les FPGA sont une option de d'inférence de Machine Learning basée sur Project Brainwave, une architecture matérielle Microsoft. Scientifiques des données et développeurs peuvent utiliser des FPGA pour accélérer les calculs IA en temps réel. Ces modèles accélérés matériellement sont maintenant généralement disponibles dans le cloud, de même qu'une préversion des modèles déployés sur Data Box Edge. Les FPGA offrent performances, flexibilité et mise à l'échelle, et sont uniquement disponibles via Azure Machine Learning. Ils permettent d’obtenir une faible latence pour les requêtes d’inférence en temps réel, ce qui réduit le besoin de requêtes asynchrones (traitement par lot).

En savoir plus

  • Azure Machine Learning
  • Features

Produits apparentés