Nowe funkcje usługi Azure Machine Learning są już dostępne
Data opublikowania: 06 maja, 2019
Funkcje obejmują:
- Możliwość interpretowania modelu — możliwość interpretowania modelu w usłudze Machine Learning umożliwia analitykom danych wyjaśnienie modeli uczenia maszynowego globalnie we wszystkich danych lub lokalnie w konkretnym punkcie danych przy użyciu nowoczesnych technologii w prosty i skalowalny sposób. Możliwość interpretowania modelu obejmuje technologie opracowane przez firmę Microsoft oraz sprawdzone biblioteki innych firm (na przykład SHAP i LIME). Zestaw SDK tworzy wspólny interfejs API we wszystkich zintegrowanych bibliotekach i integruje usługi Azure Machine Learning. Dzięki zestawowi SDK można wyjaśniać modele uczenia maszynowego globalnie we wszystkich danych lub lokalnie w konkretnym punkcie danych przy użyciu nowoczesnych technologii w prosty i skalowalny sposób.
- Prognozowanie za pośrednictwem zautomatyzowanego uczenia maszynowego, udoskonalenia zautomatyzowanego uczenia maszynowego oraz obsługa zautomatyzowanego uczenia maszynowego w usługach Databricks, CosmosDB i HDInsight —
- Zautomatyzowane uczenie maszynowe automatyzuje fragmenty przepływu pracy uczenia maszynowego, skracając czas potrzebny na zbudowanie modeli uczenia maszynowego i umożliwiając analitykom danych skoncentrowanie się na tym, co istotne, a jednocześnie upraszczając uczenie maszynowe i udostępniając je szerszej publiczności. Ogłoszenia:
- Prognozowanie jest teraz ogólnie dostępne i ma nowe funkcje
- Integracja usług Databricks, SQL, CosmosDB i HDInsight
- Funkcja możliwości objaśniania jest teraz ogólnie dostępna i bardziej wydajna
- Integracja platformy .NET Platforma ML.NET w wersji 1.0 to pierwszy krok na nowej drodze rozpoczętej w maju 2018 r. — to wtedy wydaliśmy platformę ML.NET 0.1 jako platformę typu „open source”. Od tego czasu co miesiąc wydawaliśmy nową wersję zapoznawczą, a zwieńczeniem tego przedsięwzięcia jest wersja 1.0. ML.NET to międzyplatformowa struktura uczenia maszynowego typu „open source” dla deweloperów platformy .NET. Korzystając z platformy ML.NET, deweloperzy mogą wykorzystać istniejące narzędzia i zestawy umiejętności w celu opracowania sztucznej inteligencji i zastosowania jej w swoich aplikacjach poprzez tworzenie niestandardowych modeli uczenia maszynowego w typowych scenariuszach, takich jak analiza tonacji, rekomendacja, klasyfikacja obrazów i nie tylko. Możesz użyć rozwiązania NimbusML, czyli powiązań platformy ML.NET dla języka Python, aby korzystać z platformy ML.NET w usłudze Azure Machine Learning. NimbusML umożliwia analitykom danych użycie platformy ML.NET do trenowania modeli w usłudze Azure Machine Learning lub w dowolnym środowisku, w którym używany jest język Python. Wytrenowany model uczenia maszynowego można łatwo zastosować w aplikacji platformy .NET, używając narzędzia ML.NET PredictionEngine, tak jak w tym przykładzie.
- Obsługa narzędzi DevOps najwyższej klasy w przypadku eksperymentów, potoków, rejestracji modelu, walidacji i wdrożenia: celem usługi Azure Machine Learning jest uproszczenie całego cyklu uczenia maszynowego, w tym przygotowania danych, trenowania modelu, pakowania modelu, walidacji i wdrożenia modelu. W tym celu wprowadzamy następujące usługi:
- Usługi tworzenia wersji środowiska, kodu i danych zintegrowane z dziennikiem inspekcji usługi Azure ML.
- Rozszerzenie usługi Azure DevOps dla uczenia maszynowego oraz interfejs wiersza polecenia usługi Azure ML.
- Uproszczone środowisko walidowania i wdrażania modeli uczenia maszynowego. Firma Microsoft umożliwia szybkie wdrożenie uczenia maszynowego poprzez przyspieszenie przygotowania gotowego do produkcji, natywnego dla chmury rozwiązania uczenia maszynowego. Definicja gotowości do produkcji obejmuje:
- Odtwarzalne potoki trenowania modelu
- Udokumentowane weryfikowanie, profilowanie i śledzenie modelu przed wydaniem wersji
- Wdrożenie klasy korporacyjnej i zintegrowana możliwość obserwacji, zgodnie ze wszystkimi stosownymi wytycznymi dotyczącymi zabezpieczeń
- Środowiska uruchomieniowe ONNX z użyciem dostawcy TensorRT: z radością ogłaszamy, że dostawca wykonania NVIDIA TensorRT będzie ogólnie dostępny w środowisku uruchomieniowym ONNX i umożliwi deweloperom łatwe wykorzystanie wiodącego w branży przyspieszenia GPU bez względu na wybraną platformę. Deweloperzy mogą przyspieszyć wnioskowanie modeli ONNX, które można wyeksportować lub skonwertować za pośrednictwem platformy PyTorch, TensorFlow i wielu innych. Środowisko uruchomieniowe ONNX wraz z dostawcą wykonania TensorRT przyspiesza wnioskowanie modeli uczenia głębokiego na sprzęcie firmy NVIDIA. Umożliwia to deweloperom uruchamianie modeli ONNX na różnych rodzajach sprzętu i kompilowanie aplikacji, które będą dostatecznie elastyczne, aby mogły działać na różnych konfiguracjach sprzętu. Taka architektura obejmuje abstrakcję bibliotek specyficznych dla sprzętu, które są niezbędne do zoptymalizowania wykonania głębokich sieci neuronowych.
- Modele z przyspieszaniem sprzętowym wykorzystującym układ FPGA: układy FPGA to opcja wnioskowania uczenia maszynowego wykorzystująca architekturę sprzętową firmy Microsoft o nazwie Project Brainwave. Analitycy danych i deweloperzy mogą użyć układów FPGA, aby przyspieszyć obliczenia sztucznej inteligencji wykonywane w czasie rzeczywistym. Te modele z przyspieszaniem sprzętowym są teraz ogólnie dostępne w chmurze, wraz z modelami wdrożonymi w usłudze Data Box Edge w wersji zapoznawczej. Układy FPGA oferują wydajność, elastyczność i skalowalność i są dostępne wyłącznie w usłudze Azure Machine Learning. Umożliwiają osiągnięcie niskich opóźnień w żądaniach wnioskowania w czasie rzeczywistym, zmniejszając konieczność wysyłania żądań asynchronicznych (dzielenia na partie).