Ugrás a tartalomra
MÁR ELÉRHETŐ

Új funkciók érhetők el az Azure Machine Learning szolgáltatáshoz

Közzététel dátuma: május 06, 2019

Funkciók:

  • A modellek értelmezhetősége – A gépi tanulás értelmezhetősége által az adatszakértők a legkorszerűbb technológiákkal, könnyen használható és méretezhető módon meg tudják magyarázni a gépi tanulási modelleket globálisan az összes adaton, vagy egyes adatpontokon.  A gépi tanulás értelmezhetősége a Microsoft által kifejlesztett technológiákat és kipróbált külső kódtárakat (például SHAP és LIME) foglal magában. Az SDK közös API-t hoz létre az integrált kódtárakhoz, és Azure Machine Learning-szolgáltatásokat integrál. Az SDK használatával a legkorszerűbb technológiákkal, könnyen használható és méretezhető módon tudja magyarázni a gépi tanulási modelleket globálisan az összes adaton, vagy egyes adatpontokon.
  • Előrejelzés automatizált gépi tanulás használatával, az automatikus gépi tanulás újdonságai és az automatizált gépi tanulás támogatása a Databricksben, a CosmosDB-ben és a HDInsightban –
    • Az automatizált gépi tanulás a gépi tanulási munkafolyamat egyes részeit dolgozza fel, csökkenti a gépi tanulási modellek készítésének időigényét, mialatt az adatszakértők a lényeges munkával foglalkozhatnak, ugyanakkor egyszerűbbé és szélesebb közösség számára elérhetővé teszi a gépi tanulást. A következőket jelentettük be:
    • Az előrejelzés az új funkciókkal együtt már általánosan elérhető
    • Databricks-, SQL-, CosmosDB- és HDInsight-integráció
    • Általánosan elérhető a magyarázhatóság, javított teljesítménnyel
  • .NET-integráció Az ML.NET 1.0 kiadása az első mérföldköve annak a nagy utazásnak, amely 2018 májusában, a nyílt forráskódú ML.NET 0.1 kiadásával kezdődött. Azóta havonta egy, összesen 12 előzetes verziót bocsátottunk ki, majd ezt a végleges, 1.0-ás kiadást. Az ML.NET nyílt forráskódú, platformfüggetlen gépi tanulási keretrendszer .NET-fejlesztők számára. Az ML.NET használatával a fejlesztők meglévő eszközeiket és képzettségüket hasznosítva fejleszthetnek és építhetnek be alkalmazásaikba egyéni mesterséges intelligenciát, közös gépi tanulási modelleket létrehozva sok más mellett olyan gyakori helyzetekhez, mint a hangulatelemzés, javaslattétel, képbesorolás. Az ML.NET Azure Machine Learninggel való használatához felhasználhatja az ML.NET Python-kötéseket, a NimbusML-t. A NimbusML lehetővé teszi, hogy az adatszakértők ML.NET használatával tanítsanak be modelleket az Azure Machine Learningben, vagy bárhol, ahol Pythont használnak. A betanított gépi tanulási modell egyszerűen felhasználható .NET alkalmazásban az ML.NET PredictionEngine segítségével, mint ebben a példában.
  • Első osztályú Azure DevOps-támogatás kísérletekhez, folyamatokhoz, modellregisztrációhoz, kiértékeléshez és üzembe helyezéshez: Az Azure Machine Learning elkötelezettsége a teljes gépi tanulási életciklus egyszerűbbé tétele, beleértve az adatelőkészítést, a modellek betanítását, csomagolását, kiértékelését és üzembe helyezését. Engedélyezéséhez a következő szolgáltatásokat bocsátjuk ki:
    • Környezet-, kód- és adat-verziókezelési szolgáltatások az Azure ML-auditnaplóba integrálva,
    • a Machine Learning Azure DevOps-bővítménye és az Azure ML CLI, valamint
    • egyszerűbb felület ML-modellek kiértékeléséhez és üzembe helyezéséhez. A Microsoft azáltal teszi lehetővé, hogy Ön is alkalmazza a gépi tanulást, hogy lerövidíti az éles felhasználásra kész, gépi tanulási natív felhőmegoldás elkészítéséhez szükséges időt. Az éles felhasználhatóság feltételeit a következőkben határozzuk meg:
      • Reprodukálható modellbetanítási folyamatok
      • A modellek bizonyítható kiértékelése, profilozása és nyomon követése a kibocsátás előtt
      • Nagyvállalati szintű kibocsátás és integrált megfigyelhetőség, beleértve az összes vonatkozó biztonsági irányelv betartását 
  • ONNX-futtatókörnyezet a TensorRT-vel : Örömmel jelentjük be az ONNX-futtatókörnyezet általános elérhetőségét, az ONNX-futtatókörnyezetbeli NVIDIA TensorRT végrehajtás-szolgáltatót, amellyel a fejlesztők a választott keretrendszertől függetlenül egyszerűen kiaknázhatják az iparágvezető GPU-gyorsítást. A fejlesztők felgyorsíthatják a PyTorchból, a TensorFlowból és sok más népszerű keretrendszerből exportálható vagy konvertálható ONNX-modellek származtatását.  Az ONNX-futtatókörnyezet a TensorRT végrehajtás-szolgáltatóval együtt gyorsabbá teszi a mély tanulási modellek NVIDIA-hardveren végzett származtatását. A fejlesztők így különféle hardvereken futtathatnak ONNX-modelleket és rugalmas módon, különféle hardverkonfigurációkra szánt alkalmazásokat fejleszthetnek. A mély neurális hálózatok működtetésének optimalizálásához elengedhetetlen hardverspecifikus kódtárak részleteit architektúra nyeri ki.
  • FPGA-alapú Hardware Accelerated Models : A Microsofttól származó Projekt Brainwave hardverarchitektúrára épülő helyszínen programozható kaputömbök (FPGA-k) logikai következtetésekhez használhatók gépi tanuláshoz. FPGA-k használatával az adatszakértők és fejlesztők felgyorsíthatják a valós idejű MI-számításokat. A hardveresen gyorsított modell (Hardware Accelerated Models) már nyilvánosan elérhető a felhőben, a Data Box Edge-ben üzembe helyezett modellek előzetes verzióival együtt. Az FPGA-k teljesítményt, rugalmasságot és megfelelő méretet kínálnak, és csak az Azure Machine Learningen keresztül érhetők el. Lehetővé teszik a valós idejű következtetési kérések alacsony késésű teljesítésének megvalósítását, csökkentve az aszinkron kérések (kötegelés) igényét.

Részletek

  • Azure Machine Learning
  • Features

Kapcsolódó termékek