JETZT VERFÜGBAR

Jetzt verfügbar: neue Features für Azure Machine Learning

Veröffentlichungsdatum: 06 Mai, 2019

Zu den Features gehören:

  • Modellinterpretierbarkeit: Mithilfe der Machine Learning-Interpretierbarkeit können Data Scientists Machine Learning-Modelle global für alle Daten oder lokal für einen bestimmten Datenpunkt mithilfe modernster Technologien auf einfache und skalierbare Weise erklären.  Die Machine Learning-Interpretierbarkeit enthält von Microsoft entwickelte Technologien und bewährte Bibliotheken von Drittanbietern (z.B. SHAP und LIME). Das SDK erstellt eine gemeinsame API für die integrierten Bibliotheken und integriert Azure Machine Learning-Dienste. Mit diesem SDK können Sie Machine Learning-Modelle global für alle Daten oder lokal für einen bestimmten Datenpunkt mithilfe modernster Technologien auf einfache und skalierbare Weise erklären.
  • Vorhersagen mithilfe von automatisiertem Machine Learning, Verbesserungen des automatisierten Machine Learnings und in Databricks, CosmosDB und HDInsight unterstütztes automatisiertes Machine Learning:
    • Beim automatisierten Machine Learning werden Teile des Machine Learning-Workflows automatisiert, wodurch die Zeit verringert wird, die benötigt wird, um Machine Learning-Modelle zu erstellen. Dadurch steht Data Scientists mehr Zeit zur Verfügung, sich auf ihre wichtigen Aufgaben zu konzentrieren, während das Machine Learning vereinfacht und so einer breiteren Masse zugänglich gemacht wird. Ankündigungen:
    • Allgemeine Verfügbarkeit von Vorhersagen und neue Features
    • Databricks-, SQL-, CosmosDB- und HDInsight-Integrationen
    • Allgemeine Verfügbarkeit von Erklärungen und Verbesserungen der Leistung
  • .NET-Integration: ML.NET 1.0 ist der erste große Meilenstein einer Reise mit unbekanntem Ziel, die im Mai 2018 begann, als ML.NET 1.0 als Open-Source-Framework veröffentlicht wurde. Seitdem kamen monatlich neue Veröffentlichungen dazu: 12 Vorschauversionreleases und das aktuelle Release von Version 1.0. ML.NET ist ein Open-Source- und plattformübergreifendes Machine Learning-Framework für .NET-Entwickler. Mithilfe von ML.NET können Entwickler ihre vorhandenen Tools und Fähigkeiten verwenden, um benutzerdefinierte KI zu entwickeln und in ihre Anwendungen zu integrieren, indem sie benutzerdefinierte Machine Learning-Modelle für gängige Szenarios erstellen, z.B. für Standpunktanalysen, Empfehlungen und für die Bilderkennung. Sie können NimbusML verwenden, die Python-Bindungen von ML.NET, um ML.NET mit Azure Machine Learning zu verwenden. Mithilfe von NimbusML können Data Scientists ML.NET dazu verwenden, ihre Modelle in Azure Machine Learning zu trainieren oder generell überall dort, wo Python verwendet wird. Das trainierte Machine Learning-Modell kann wie in diesem Beispiel veranschaulicht einfach in einer .NET-Anwendung mit ML.NET PredictionEngine verwendet werden.
  • Hervorragende Azure DevOps-Unterstützung für Experimente, Pipelines und für die Modellregistrierung, -überprüfung und -bereitstellung: Azure Machine Learning hat die Aufgabe, den vollständigen Lebenszyklus von Machine Learning zu vereinfachen, einschließlich der Datenaufbereitung, dem Modelltraining, der Modellpaketerstellung, der Prüfung und der Modellimplementierung. Dazu werden die folgenden Dienste veröffentlicht:
    • Umgebungs-, Code und Datenversionierungsdienste, die in den Audit-Trail von Azure Machine Learning integriert werden.
    • Die Azure DevOps-Erweiterung für Machine Learning und die Azure ML CLI.
    • Einfacherer Prozess zur Überprüfung und Implementierung von Machine Learning-Modellen. Microsoft ermöglicht es Ihnen, Machine Learning schnell einzusetzen, indem die Zeit verkürzt wird, die für die Entwicklung einer produktionsbereiten, cloudnativen Machine Learning-Lösung benötigt wird. Produktionsbereit bedeutete Folgendes:
      • Reproduzierbare Modelltrainingpipelines
      • Nachweisbare Überprüfung, Profilierung und Nachverfolgung von Modellen vor der Veröffentlichung
      • Ein Rollout auf Unternehmensebene und integrierte Möglichkeiten zur Überwachung, einschließlich aller notwendigen entsprechenden Sicherheitsrichtlinien 
  • ONNX-Runtime mit TensorRT: Wir freuen uns, die allgemeine Verfügbarkeit des NVIDIA TensorRT-Ausführungsanbieters in der ONNX-Runtime bekanntgeben zu können. Entwickler können so problemlos die branchenführende GPU-Beschleunigung unabhängig vom gewählten Framework verwenden. Entwickler können das Rückschließen von ONNX-Modellen beschleunigen. Ein Export oder eine Konvertierung aus PyTorch, TensorFlow und vielen anderen beliebten Frameworks ist möglich.  Die ONNX-Runtime beschleunigt das Rückschließen von Deep Learning-Modellen auf NVIDIA-Hardware zusammen mit dem TensorRT-Ausführungsanbieter. Dadurch können Entwickler ONNX-Modelle auf verschiedenen Hardwarevarianten ausführen und Anwendungen flexibel für verschiedene Hardwarekonfigurationen erstellen. Die Architektur abstrahiert die Details der hardwarespezifischen Bibliotheken, die wichtig für die Optimierung der Ausführung von Deep Neural Networks ist.
  • FPGA-basierte hardwarebeschleunigte Modelle: FPGAs sind eine Machine Learning-Rückschlussoption, die auf Project Brainwave basiert, einer Hardwarearchitektur von Microsoft. Data Scientists und Entwickler können FPGAs verwenden, um KI-Berechnungen in Echtzeit zu beschleunigen. Hardwarebeschleunigte Modelle sind nun allgemein in der Cloud verfügbar, zusammen mit einer Vorschau der Modelle, die in Data Box Edge bereitgestellt werden. FPGAs bietet Leistung, Flexibilität sowie Skalierung und sind nur über Azure Machine Learning verfügbar. Sie ermöglichen eine geringe Latenz für Rückschlussanforderungen in Echtzeit, wodurch der Bedarf asynchroner Anforderungen (Batchverarbeitung) gemindert wird.

Weitere Informationen

  • Azure Machine Learning
  • Microsoft Build

Verwandte Produkte