NYNÍ K DISPOZICI

Jsou teď k dispozici nové funkce služby Azure Machine Learning

Datum publikování: 06 května, 2019

K funkcím patří:

  • Interpretovatelnost modelů – interpretovatelnost strojového učení umožňuje odborníkům na data vysvětlit modely strojového učení globálně na všech datech nebo místně v určitém datovém bodu pomocí nejmodernějších technologií, a to snadno a s možností škálování.  Interpretovatelnost strojového učení zahrnuje technologie vyvinuté Microsoftem a osvědčené knihovny třetích stran (například SHAP a LIME). Sada SDK vytvoří v integrovaných knihovnách společné rozhraní API a integruje služby Azure Machine Learning. Pomocí této sady SDK můžete vysvětlit modely strojového učení globálně na všech datech nebo místně v určitém datovém bodu pomocí nejmodernějších technologií, a to snadno a s možností škálování.
  • Prognózování prostřednictvím automatizovaného strojového učení, vývoje automatizovaného strojového učení a podpory automatizovaného strojového učení v rámci Databricks, CosmosDB a HDInsight –
    • Automatizované strojové učení automatizuje jednotlivé části pracovního postupu strojového učení a zkracuje dobu nutnou k vytváření modelů strojového učení, takže se odborníci na data můžou soustředit na jinou důležitou práci. Zároveň se tím strojové učení zjednoduší a otevře širšímu publiku. Oznámili jsme tyto novinky:
    • Všeobecná dostupnost prognózování s novými funkcemi
    • Integrace Databricks, SQL, CosmosDB a HDInsight
    • Všeobecná dostupnost vysvětlitelnosti s vyšším výkonem
  • Integrace rozhraní .NETVydání ML.NET 1.0 představuje první důležitý milník na cestě do prostředí open source, která začala v květnu 2018, kdy jsme vydali ML.NET 0.1 jako open source. Od té doby přicházíme s novými vydáními každý měsíc, což odpovídá 12 vydáním verze Preview a této konečné verzi 1.0. ML.NET je open source architektura strojového učení pro různé platformy určená pro vývojáře na platformě .NET. ML.NET umožňuje vývojářům využívat stávající nástroje a dovednosti při vývoji a začleňování přizpůsobené umělé inteligence do svých aplikací díky vytváření vlastních modelů strojového učení pro běžné scénáře, jako jsou analýza mínění, doporučení, klasifikace obrázků a další. Pokud chcete zkombinovat ML.NET se službou Azure Machine Learning, můžete použít NimbusML, což jsou vazby ML.NET pro Python. NimbusML umožňuje odborníkům na data používat ML.NET k trénování modelů ve službě Azure Machine Learning nebo kdekoli jinde, kde pracují s Pythonem. Vytrénovaný model strojového učení se dá snadno použít v aplikaci .NET s modulem ML.NET PredictionEngine jako v tomto příkladu.
  • Špičková podpora Azure DevOps týkající se experimentů, kanálů, registrace modelů, ověření a nasazení: Cílem Azure Machine Learning je zjednodušit celý cyklus strojového učení, včetně přípravy dat, trénování modelu, zabalení modelu, ověření a nasazení modelu. Z toho důvodu spouštíme následující služby:
    • Služby správy verzí prostředí, kódu a dat integrované do záznamu pro audit Azure ML
    • Rozšíření Azure DevOps pro Machine Learning a Azure ML CLI
    • Zjednodušené prostředí pro ověřování a nasazování modelů strojového učení. Microsoft vám díky rychlejšímu dosažení nativního cloudového řešení strojového učení připraveného na provoz v produkčním prostředí umožňuje rychle zahájit práci se strojovým učením. Připravenost na provoz v produkčním prostředí definujeme takto:
      • Reprodukovatelné kanály trénování modelu
      • Prokazatelné ověření, profilace a sledování modelu před vydáním
      • Uvedení na podnikové úrovni a integrovaná sledovatelnost při dodržení všech příslušných pokynů pro zabezpečení 
  • Modul ONNX Runtime s platformou TensorRT: S potěšením oznamujeme všeobecnou dostupnost modulu ONNX Runtime, poskytovatele provádění NVIDIA TensorRT v modulu ONNX Runtime, který vývojářům umožňuje snadno využívat přední akceleraci GPU v oboru bez ohledu na zvolenou architekturu. Vývojáři můžou urychlit odvozování modelů ONNX a tyto modely exportovat nebo převádět z PyTorch, TensorFlow a řady dalších oblíbených platforem.  ONNX Runtime se svým poskytovatelem provádění TensorRT urychluje odvozování modelů hlubokého učení na hardwaru NVIDIA. To umožňuje vývojářům spouštět modely ONNX na různých variantách hardwaru a vytvářet aplikace s flexibilními možnosti zaměření na různé konfigurace hardwaru. Architektura abstrahuje podrobnosti knihoven pro konkrétní hardware, které jsou zásadní pro optimalizaci běhu hlubokých neurálních sítí.
  • Modely s hardwarovou akcelerací založené na FPGA: Pole FPGA představují možnost odvozování strojového učení založenou na hardwarové architektuře od Microsoftu s názvem Project Brainwave. Odborníci na data a vývojáři můžou používat FPGA ke zrychlení výpočtů AI v reálném čase. Tyto modely s hardwarovou akcelerací jsou teď všeobecně dostupné v cloudu společně s verzí Preview modelů nasazených do Data Box Edge. Pole FPGA nabízejí výkon, flexibilitu a škálování a jsou dostupná jenom ve službě Azure Machine Learning. Umožňují dosáhnout nízké latence u požadavků na odvozování v reálném čase, takže snižují potřebu asynchronních požadavků (dávkování).

Další informace

  • Azure Machine Learning
  • Microsoft Build

Související produkty