Hoppa till huvudinnehåll
TILLGÄNGLIGT NU

Nya funktioner för Azure Machine Learning är nu tillgängliga

Publiceringsdatum: 06 maj, 2019

Funktionerna omfattar:

  • Model Interpretability – med tolkning av maskininlärning kan data scientists användarvänligt och skalbart förklara maskininlärningsmodeller globalt för samtliga data, eller lokalt för en viss datapunkt, med hjälp av toppmodern teknik.  I tolkningen av maskininlärning ingår tekniker som utvecklats av Microsoft och beprövade tredjepartsbibliotek (som SHAP och LIME). SDK:t skapar ett gemensamt API för de integrerade biblioteken och integrerar Azure Machine Learning-tjänster. Med det här SDK:t kan du användarvänligt och skalbart förklara maskininlärningsmodeller globalt för samtliga data, eller lokalt för en viss datapunkt, med hjälp av toppmodern teknik.
  • Prognostisering via AutomatedML, AutomatedML-förbättringar och AutomatedML-stöd i Databricks, CosmosDB och HDInsight –
    • AutomatedML automatiserar delar av ML-arbetsflödet så att data scientists kan skapa maskininlärningsmodeller snabbare och få mer tid över till viktigare arbetsuppgifter, samtidigt som maskininlärningen görs enklare och mer tillgänglig för en bredare målgrupp. Vi har presenterat följande:
    • Prognostisering är nu allmänt tillgängligt med nya funktioner
    • Integrering med Databricks, SQL, CosmosDB och HDInsight
    • Förklaringsbarhet är nu allmänt tillgängligt med förbättrad prestanda
  • .NET-integrering – versionen ML.NET 1.0 är den första betydande milstolpen längs en storslagen resa som började i maj 2018 när vi lanserade ML.NET 0.1 som öppen källkod. Sedan dess har vi släppt nya versioner varje månad, 12 förhandsversioner och nu slutligen den här 1.0-versionen. ML.NET är ett plattformsoberoende maskininlärningsramverk med öppen källkod för .NET-utvecklare. Med ML.NET kan utvecklare använda befintliga verktyg och färdigheter till att utveckla och införa AI i sina appar, genom att skapa anpassade maskininlärningsmodeller för vanliga scenarier som sentimentanalys, rekommendationer, bildklassificering och mycket annat. Med hjälp av Python-bindningarna NimbusML i ML.NET kan du använda ML.NET tillsammans med Azure Machine Learning. NimbusML gör att data scientists kan använda ML.NET till att träna upp modeller i Azure Machine Learning eller på valfri annan plats där de använder Python. Den tränade maskininlärningsmodellen kan sedan enkelt användas i .NET-appar med ML.NET PredictionEngine som i det här exemplet.
  • Förstklassigt Azure DevOps-stöd för experiment, pipelines samt registrering, validering och distribuering av modeller: Ett uppdrag för Azure Machine Learning är att göra hela livscykeln för maskininlärning enklare. I det här ingår dataförberedelser samt träning, paketering, validering och distribution av modeller. Som ett led i detta lanserar vi följande tjänster:
    • Versionshanteringstjänster för miljö, kod och data integrerade i Azure ML Audit Trail,
    • som är Azure DevOps-tillägget för Machine Learning och Azure ML CLI samt
    • ett enklare sätt att validera och distribuera maskininlärningsmodeller. Med Microsoft kan du nu snabbt börja använda maskininlärning genom att du enklare kan ta fram produktionsklara, molnbaserade maskininlärningslösningar. Produktionsklar definieras som följande i det här sammanhanget:
      • reproducerbara pipelines för modellträning
      • bevisbar validering, profilering och spårning av modeller innan de tas i drift
      • distribution i företagsklass med integrerad observerbarhet för alla nödvändiga komponenter och i enlighet med gällande riktlinjer för säkerheten. 
  • ONNX Runtime med TensorRT: Vi är stolta över att kunna meddela att ONNX Runtime, NVIDIA TensorRT-körningsprovidern i ONNX Runtime, nu är allmänt tillgänglig så att utvecklare enkelt kan använda sig av branchledande grafikacceleration oavsett ramverk. Utvecklare kan hantera inferens för ONNX-modeller snabbare och sedan exportera eller konvertera dem från PyTorch, TensorFlow och många andra populära ramverk.  Med ONNX Runtime och TensorRT-körningsprovidern kan du hantera inferens för djupinlärningsmodeller snabbare på maskinvara från NVIDIA. Det här gör att utvecklare kan köra ONNX-modeller på olika typer av maskinvara och skapa appar med flexibiliteten att kunna rikta in sig mot olika maskinvarukonfigurationer. I arkitekturen abstraheras de maskinvaruspecifika bibliotek som behövs för att optimera körningen av djupa neurala nätverk.
  • FPGA-baserade och maskinvaruaccelererade modeller: Omprogrammerbara grindmatriser (FPGA:er) är ett inferensalternativ inom maskininlärning som baseras på Project Brainwave, en maskinvaruarkitektur från Microsoft. Data scientists och utvecklare kan använda omprogrammerbara grindmatriser till att göra AI-realtidsberäkningar snabbare. De här maskinvaruaccelererade modellerna är nu allmänt tillgängliga i molnet tillsammans med en förhandsversion  av modeller som distribueras till Data Box Edge. Omprogrammerbara grindmatriser ger bättre prestanda, flexibilitet och skalningsmöjligheter och är bara tillgängliga via Azure Machine Learning. De gör att du kan få korta svarstider för inferensförfrågningar i realtid, så att du inte behöver göra några asynkrona förfrågningar (batchhantering).

Läs mer

  • Azure Machine Learning
  • Features

Tillhörande produkter