Gå til hovedinnhold
TILGJENGELIG NÅ

Nye funksjoner for Azure Machine Learning er nå tilgjengelige

Publiseringsdato: 06 mai, 2019

Funksjonene omfatter blant annet følgende:

  • Modelltolkbarhet – tolkbarhet i maskinlæring betyr at datateknikere kan forklare maskinlæringsmodeller globalt på alle data eller lokalt på et bestemt datapunkt ved hjelp av den siste teknologien på en brukervennlig og skalerbar måte.  Tolkbarhet i maskinlæring innlemmer teknologier som er utviklet av Microsoft og utprøvde tredjepartsbiblioteker (for eksempel SHAP og LIME). SDK-en oppretter en felles API på tvers av de integrerte bibliotekene og integrerer Azure Machine Learning Service. Ved hjelp av denne SDK-en kan du forklare maskinlæringsmodeller globalt på alle data eller lokalt på et bestemt datapunkt ved hjelp av den siste teknologien på en brukervennlig og skalerbar måte.
  • Prognose via AutomatedML, AutomatedML-forbedringer og AutomatedML støttet på Databricks, CosmosDB og HDInsight –
    • Automatisert maskinlæring automatiserer deler av arbeidsflyten, reduserer tiden det tar å bygge maskinlæringsmodeller og gir datateknikere tid til å konsentrere seg om det viktige arbeidet samtidig som maskinlæringen forenkles og blir tilgjengelig for flere. Vi har kunngjort:
    • Prognoser er nå generelt tilgjengelig med nye funksjoner
    • Integrasjon av Databricks, SQL, CosmosDB og HDInsight
    • Forklaringsevne er nå generelt tilgjengelig, med forbedret ytelse
  • .NET-integrasjon ML.NET 1.0-lanseringen er den første store milepælen i en lang reise som startet i mai 2018 da vi lanserte ML.NET 0.1 som åpen kilde. Siden det har vi lansert månedlig, 12 forhåndsversjoner pluss denne siste 1.0-lanseringen. ML.NET er et maskinlæringsrammeverk med åpen kildekode og for flere plattformer for .NET-utviklere. Ved hjelp av ML.NET kan utviklere utnytte eksisterende verktøy og kompetanse til å utvikle og tilføre egendefinert AI til programmene sine ved å opprette egendefinerte maskinlæringsmodeller for vanlige scenarioer som sentimentanalyse, anbefaling, bildeklassifisering og mer. Du kan bruke NimbusML, ML.NET Python-bindingene, til å bruke ML.NET med Azure Machine Learning. NimbusML gjør det mulig for datateknikere å bruke ML.NET il å lære opp modeller i Azure Machine Learning eller andre steder hvor de bruker Python. Den opplærte maskinlæringsmodellen kan enkelt brukes i et .NET-program med ML.NET PredictionEngine som i dette eksemplet.
  • Førsteklasses Azure DevOps-støtte for eksperimenter, datasamlebånd, modellregistrering, validering og distribusjon: Azure Machine Learning har som oppdrag å forenkle ende-til-ende-livssyklusen for maskinlæring, inkludert dataklargjøring, modellopplæring, validering og modelldistribusjon. For å gjøre dette mulig lanserer vi disse tjenestene:
    • tjenester for versjonskontroll av miljø, kode og data, integrert i Azure ML Audit Trail, 
    • Azure DevOps utvidelsen for Machine Learning og Azure ML CLI og
    • forenklet validering og distribusjon av ML-modeller. Microsoft gjør det mulig for deg å innføre ML raskt ved å fremskynde en produksjonsklar, skybasert ML-løsning. Produksjonsklarhet defineres som:
      • reproduserbare datasamlebånd for modellopplæring
      • validere, profilere og spore modellen før lansering
      • utrulling for bedrifter og integrert mulighet for observering, inkludert alle nødvendige retningslinjer for sikkerhet 
  • ONNX Runtime med TensorRT: Det er med glede vi kan kunngjøre generell tilgjengelighet for ONNX Runtime, NVIDIA TensorRT-kjøringsleverandør i ONNX Runtime, som gjør det mulig for utviklere å enkelt utnytte bransjeledende GPU-akselerasjon, uavhengig av rammeverket de har valgt. Utviklere kan fremskynde slutninger av ONNX-modeller, som kan eksporteres eller konverteres fra PyTorch, TensorFlow og mange andre populære rammeverk.  ONNX Runtime, sammen med kjøringsleverandøren TensorRT, fremskynder slutningene fra dype læringsmodeller på NVIDIA-maskinvare. Dette betyr at utviklere kan kjøre ONNX-modeller på tvers av forskjellig slags maskinvare og bygge programmer som er fleksible nok til å rettes inn mot forskjellige maskinvarekonfigurasjoner. Arkitekturen skiller ut detaljene til de maskinvarespesifikke bibliotekene som er vesentlige for å optimalisere kjøringen av dype nevralnettverk.
  • FPGA-baserte maskinvareakselererte modeller: FPGA-er er et slutningsalternativ for maskinlæring, basert på Project Brainwave, en maskinvarearkitektur fra Microsoft. Datateknikere og utviklere kan bruke FPGA-er til å fremskynde AI-beregninger i sanntid. Disse maskinvareakselererte modellene er nå generelt tilgjengelige i skyen sammen med en forhåndsversjon  av modeller distribuert til Data Box Edge. FPGA-er gir ytelse, fleksibilitet og skala og er bare tilgjengelig gjennom Azure Machine Learning. De gjør det mulig å oppnå lav ventetid for slutningsforespørsler i sanntid og reduserer dermed behovet for asynkrone forespørsler (satsvis kjøring).

Les mer

  • Azure Machine Learning
  • Features

Relaterte produkter