Przejdź do głównej zawartości
DOSTĘPNE TERAZ

Nowe funkcje usługi Azure Machine Learning są już dostępne

Data opublikowania: 06 maja, 2019

Funkcje obejmują:

  • Możliwość interpretowania modelu — możliwość interpretowania modelu w usłudze Machine Learning umożliwia analitykom danych wyjaśnienie modeli uczenia maszynowego globalnie we wszystkich danych lub lokalnie w konkretnym punkcie danych przy użyciu nowoczesnych technologii w prosty i skalowalny sposób.  Możliwość interpretowania modelu obejmuje technologie opracowane przez firmę Microsoft oraz sprawdzone biblioteki innych firm (na przykład SHAP i LIME). Zestaw SDK tworzy wspólny interfejs API we wszystkich zintegrowanych bibliotekach i integruje usługi Azure Machine Learning. Dzięki zestawowi SDK można wyjaśniać modele uczenia maszynowego globalnie we wszystkich danych lub lokalnie w konkretnym punkcie danych przy użyciu nowoczesnych technologii w prosty i skalowalny sposób.
  • Prognozowanie za pośrednictwem zautomatyzowanego uczenia maszynowego, udoskonalenia zautomatyzowanego uczenia maszynowego oraz obsługa zautomatyzowanego uczenia maszynowego w usługach Databricks, CosmosDB i HDInsight —
    • Zautomatyzowane uczenie maszynowe automatyzuje fragmenty przepływu pracy uczenia maszynowego, skracając czas potrzebny na zbudowanie modeli uczenia maszynowego i umożliwiając analitykom danych skoncentrowanie się na tym, co istotne, a jednocześnie upraszczając uczenie maszynowe i udostępniając je szerszej publiczności. Ogłoszenia:
    • Prognozowanie jest teraz ogólnie dostępne i ma nowe funkcje
    • Integracja usług Databricks, SQL, CosmosDB i HDInsight
    • Funkcja możliwości objaśniania jest teraz ogólnie dostępna i bardziej wydajna
  • Integracja platformy .NET Platforma ML.NET w wersji 1.0 to pierwszy krok na nowej drodze rozpoczętej w maju 2018 r. — to wtedy wydaliśmy platformę ML.NET 0.1 jako platformę typu „open source”. Od tego czasu co miesiąc wydawaliśmy nową wersję zapoznawczą, a zwieńczeniem tego przedsięwzięcia jest wersja 1.0. ML.NET to międzyplatformowa struktura uczenia maszynowego typu „open source” dla deweloperów platformy .NET. Korzystając z platformy ML.NET, deweloperzy mogą wykorzystać istniejące narzędzia i zestawy umiejętności w celu opracowania sztucznej inteligencji i zastosowania jej w swoich aplikacjach poprzez tworzenie niestandardowych modeli uczenia maszynowego w typowych scenariuszach, takich jak analiza tonacji, rekomendacja, klasyfikacja obrazów i nie tylko. Możesz użyć rozwiązania NimbusML, czyli powiązań platformy ML.NET dla języka Python, aby korzystać z platformy ML.NET w usłudze Azure Machine Learning. NimbusML umożliwia analitykom danych użycie platformy ML.NET do trenowania modeli w usłudze Azure Machine Learning lub w dowolnym środowisku, w którym używany jest język Python. Wytrenowany model uczenia maszynowego można łatwo zastosować w aplikacji platformy .NET, używając narzędzia ML.NET PredictionEngine, tak jak w tym przykładzie.
  • Obsługa narzędzi DevOps najwyższej klasy w przypadku eksperymentów, potoków, rejestracji modelu, walidacji i wdrożenia: celem usługi Azure Machine Learning jest uproszczenie całego cyklu uczenia maszynowego, w tym przygotowania danych, trenowania modelu, pakowania modelu, walidacji i wdrożenia modelu. W tym celu wprowadzamy następujące usługi:
    • Usługi tworzenia wersji środowiska, kodu i danych zintegrowane z dziennikiem inspekcji usługi Azure ML.
    • Rozszerzenie usługi Azure DevOps dla uczenia maszynowego oraz interfejs wiersza polecenia usługi Azure ML.
    • Uproszczone środowisko walidowania i wdrażania modeli uczenia maszynowego. Firma Microsoft umożliwia szybkie wdrożenie uczenia maszynowego poprzez przyspieszenie przygotowania gotowego do produkcji, natywnego dla chmury rozwiązania uczenia maszynowego. Definicja gotowości do produkcji obejmuje:
      • Odtwarzalne potoki trenowania modelu
      • Udokumentowane weryfikowanie, profilowanie i śledzenie modelu przed wydaniem wersji
      • Wdrożenie klasy korporacyjnej i zintegrowana możliwość obserwacji, zgodnie ze wszystkimi stosownymi wytycznymi dotyczącymi zabezpieczeń 
  • Środowiska uruchomieniowe ONNX z użyciem dostawcy TensorRT: z radością ogłaszamy, że dostawca wykonania NVIDIA TensorRT będzie ogólnie dostępny w środowisku uruchomieniowym ONNX i umożliwi deweloperom łatwe wykorzystanie wiodącego w branży przyspieszenia GPU bez względu na wybraną platformę. Deweloperzy mogą przyspieszyć wnioskowanie modeli ONNX, które można wyeksportować lub skonwertować za pośrednictwem platformy PyTorch, TensorFlow i wielu innych.  Środowisko uruchomieniowe ONNX wraz z dostawcą wykonania TensorRT przyspiesza wnioskowanie modeli uczenia głębokiego na sprzęcie firmy NVIDIA. Umożliwia to deweloperom uruchamianie modeli ONNX na różnych rodzajach sprzętu i kompilowanie aplikacji, które będą dostatecznie elastyczne, aby mogły działać na różnych konfiguracjach sprzętu. Taka architektura obejmuje abstrakcję bibliotek specyficznych dla sprzętu, które są niezbędne do zoptymalizowania wykonania głębokich sieci neuronowych.
  • Modele z przyspieszaniem sprzętowym wykorzystującym układ FPGA: układy FPGA to opcja wnioskowania uczenia maszynowego wykorzystująca architekturę sprzętową firmy Microsoft o nazwie Project Brainwave. Analitycy danych i deweloperzy mogą użyć układów FPGA, aby przyspieszyć obliczenia sztucznej inteligencji wykonywane w czasie rzeczywistym. Te modele z przyspieszaniem sprzętowym są teraz ogólnie dostępne w chmurze, wraz z modelami wdrożonymi w usłudze Data Box Edge w wersji zapoznawczej. Układy FPGA oferują wydajność, elastyczność i skalowalność i są dostępne wyłącznie w usłudze Azure Machine Learning. Umożliwiają osiągnięcie niskich opóźnień w żądaniach wnioskowania w czasie rzeczywistym, zmniejszając konieczność wysyłania żądań asynchronicznych (dzielenia na partie).

Dowiedz się więcej

  • Azure Machine Learning
  • Features

Powiązane produkty