FÅS NU

Nye funktioner til Azure Machine Learning er nu tilgængelige

Dato for publicering: 06 maj, 2019

Funktionerne omfatter:

  • Fortolkning af model – med mulighed for fortolkning af maskinel indlæring kan dataeksperter forklare modeller til maskinel indlæring globalt på alle data eller lokalt på et specifikt datapunkt ved hjælp af banebrydende teknologier, der er nemme at bruge og skalerbare.  Ved fortolkning af maskinel indlæring inkorporeres teknologier, der er udviklet af Microsoft og gennemprøvede tredjepartsbiblioteker (f.eks. SHAP og LIME). SDK'et opretter en fælles API på tværs af de integrerede biblioteker og integrere Azure Machine Learning-tjenester. Ved hjælp af dette SDK kan du forklare modeller til maskinel indlæring globalt på alle data eller lokalt på et specifikt datapunkt ved hjælp af banebrydende teknologier, der er nemme at bruge og skalerbare.
  • Udarbejdelse af prognoser via AutomatedML, Automated ML-forbedringer og AutomatedML understøttes på Databricks, CosmosDB og HDInsight –
    • Automated ML automatiserer dele at ML-arbejdsprocessen ved at reducere den tid, det tager at bygge ML-modeller, frigøre dataeksperter, og samtidig simplificere ML og gøre det tilgængeligt for et bredere publikum. Vi har annonceret:
    • Udarbejdelse af prognoser er nu offentligt tilgængeligt med nye funktioner
    • Integrationer til Databricks, SQL, CosmosDB og HDInsight
    • Forklarlighed er nu offentligt tilgængelig med forbedret ydeevne
  • .NET-integration Udgivelsen af ML.NET 1.0 er den første store milepæl i en fantastisk offentlig rejse, der startede i maj 2018, da vi udgav ML.NET 0.1 som åben kildekode. Siden da har vi udgivet en ny hver måned, i alt 12 prøveversioner samt denne endelige 1.0 udgivelse. ML.NET er et miljø til maskinel indlæring med åben kildekode til .NET-udviklere. Ved hjælp af ML.NET kan udviklere udnytte deres eksisterende værktøjer og kompetencer til at udvikle og indføre tilpasset AI i deres programmer ved at oprette tilpassede modeller til maskinel indlæring til almindelige scenarier som analyse af synspunkter, anbefalinger, billedklassificering med mere. Du kan bruge NimbusML, som er Python-bindingerne i ML.NET, til at bruge ML.NET sammen med Azure Machine Learning. NimbusML giver dataeksperter mulighed for at bruge ML.NET til at oplære modeller i Azure Machine Learning eller andre steder, hvor de bruger Python. Den oplærte model til maskinel indlæring kan nemt bruges in et .NET-program med ML.NET PredictionEngine som i dette eksempel.
  • Første klasses Azure DevOps-understøttelse af eksperimenter, pipelines, modelregistrering, validering og udrulning: Azure Machine Learning har en mission om at forenkle hele livscyklussen for maskinel indlæring, herunder dataforberedelse, modeloplæring, modelpakning, validering og modeludrulning. Vi lancerer følgende tjenester for at opnå dette:
    • Tjenester til versionering af miljø, kode og data, som er integreret i Azure ML-revisionssporet, 
    • Azure DevOps-udvidelsen til maskinel indlæring samt Azure ML-kommandolinjegrænseflade og
    • En forenklet oplevelse til validering og udrulning af ML-modeller. Microsoft giver dig mulighed for at indføre ML hurtigt ved at forkorte den tid, du skal bruge for at få en produktionsklar, ægte cloudløsning til ML. Med produktionsklar menes:
      • Reproducerbare pipelines til modeloplæring
      • Bevisbar validering, profilering of sporing af modellen inden udgivelse
      • Udrulning i virksomhedsklasse og integreret observerbarhed, herunder overholdelse af alle nødvendige og relevante retningslinjer for sikkerhed 
  • ONNX Runtime med TensorRT : Vi er glade for at kunne annoncere, at ONNX Runtime er offentligt tilgængelig med NVIDIA TensorRT som udførelsesprovider i ONNX Runtime, hvilket giver udviklere mulighed for nemt at udnytte branchens førende GPU-acceleration, uanset hvilket miljø de har valgt. Udviklere kan opnå hurtigere følgeslutninger med ONNX-modeller, som kan eksporteres eller konverteres fra PyTorch, TensorFlow og mange andre populære miljøer.  ONNX Runtime sammen med udførelsesprovideren TensorRT øger hastigheden for følgeslutninger i modeller til detaljeret læring på NVIDIA-hardware. Dette giver udviklere mulighed for at køre ONNX-modeller på tværs at forskellige typer hardware og udvikle programmer med fleksibilitet til at målrette mod forskellige hardwarekonfigurationer. Arkitekturen udleder de detaljer fra de hardwarespecifikke biblioteker, der er vigtige for at optimere udførelsen af dybe neurale netværk.
  • FPGA-baserede hardwareaccelererede modeller: FPGA'er er en mulighed for brug af følgeslutninger i maskinel indlæring, der er baseret på Project Brainwave, som er en hardwarearkitektur fra Microsoft. Dataeksperter og udviklere kan bruge FPGA'er til at øge hastigheden for AI-beregninger i realtid. Disse hardwareaccelererede modeller er nu offentligt tilgængelige i cloudmiljøet sammen med en prøveversion  of modeller, der udrulles til Data Box Edge. FPGA'er tilbyder ydeevne, fleksibilitet og skalering og er kun tilgængelige gennem Azure Machine Learning. De gør det muligt at opnå kort ventetid for anmodninger om følgeslutninger i realtid, hvilket mindsker behovet for asynkrone anmodninger (batchkørsel).

Få mere at vide

  • Azure Machine Learning:
  • Microsoft Build

Relaterede produkter