Passa al contenuto principale
ORA DISPONIBILE

Sono ora disponibili nuove funzionalità per Azure Machine Learning

Data di pubblicazione: 06 maggio, 2019

Funzionalità incluse:

  • Interpretabilità dei modelli - L'interpretabilità di Machine Learning consente ai data scientist di spiegare i modelli di Machine Learning a livello globale su tutti i dati o in locale in un punto dati specifico usando le tecnologie più aggiornate in modo semplice e scalabile.  L'interpretabilità di Machine Learning incorpora tecnologie sviluppate da Microsoft e librerie consolidate di terze parti, ad esempio SHAP e LIME. L'SDK crea un'API comune nelle librerie integrate e integra i servizi di Azure Machine Learning. Usando l'SDK puoi spiegare i modelli di Machine Learning a livello globale su tutti i dati o in locale in un punto dati specifico usando le tecnologie più aggiornate in modo semplice e scalabile.
  • Previsioni tramite AutomatedML, innovazioni di AutomatedML e supporto per AutomatedML in Databricks, CosmosDB e HDInsight –
    • AutomatedML automatizza parti del flusso di lavoro di Machine Learning, riducendo il tempo necessario per la creazione di modelli di Machine Learning, permettendo ai data scientist di concentrarsi sulle attività più importanti e semplificando al tempo stesso l'uso di Machine Learning per rendere queste funzionalità disponibili a un gruppo più ampio di destinatari. Annunci effettuati:
    • Le previsioni sono ora disponibili a livello generale con nuove funzionalità
    • Integrazioni per Databricks, SQL, CosmosDB e HDInsight
    • La spiegabilità è ora disponibile a livello generale con prestazioni migliorate
  • Integrazione con .NET La versione ML.NET 1.0 è il primo passaggio importante dello straordinario viaggio verso il mondo open source iniziato nel mese di maggio 2018 con il rilascio di ML.NET 0.1 come open source. A partire da quel momento abbiamo fornito rilasci mensili, offrendo 12 versioni di anteprima e questa versione 1.0 finale. ML.NET è un framework open source e multipiattaforma per Machine Learning per sviluppatori .NET. Usando ML.NET gli sviluppatori possono sfruttare i vantaggi degli strumenti e dei set di competenze esistenti per sviluppare e inserire intelligenza artificiale personalizzata nelle applicazioni mediante la creazione di modelli personalizzati di Machine Learning per scenari comuni come l'analisi del sentiment, le raccomandazioni, la classificazione di immagini e altro ancora. Puoi usare NimbusML, ovvero le associazioni ML.NET Python per l'uso di ML.NET con Azure Machine Learning. NimbusML permette ai data scientist di usare ML.NET per il training dei modelli in Azure Machine Learning oppure ovunque usino Python. Il modello di Machine Learning sottoposto a training può essere usato con facilità in un'applicazione .NET con ML.NET PredictionEngine, come illustrato in questo esempio.
  • Supporto di Azure DevOps di qualità elevata per esperimenti, pipeline, registrazione di modelli, convalida e distribuzione: Azure Machine Learning ha come obiettivo la semplificazione del ciclo di vita end-to-end di Machine Learning, incluse le operazioni di preparazione dei dati, training dei modelli, creazione di pacchetti di modelli, convalida e distribuzione dei modelli. Per consentire queste operazioni, abbiamo lanciato i servizi seguenti:
    • Servizi per ambiente, codice e controllo delle versioni dei dati, integrati nell'audit trail di Azure Machine Learning.
    • Estensione di Azure DevOps per Machine Learning e interfaccia della riga di comando di Azure ML.
    • Esperienza semplificata per la convalida e la distribuzione di modelli di Machine Learning. Microsoft ti permette di adottare rapidamente le funzionalità di Machine Learning riducendo il tempo necessario per ottenere una soluzione di Machine Learning nativa per il cloud e pronta per la produzione. L'idoneità per la produzione è basata sui criteri seguenti:
      • Pipeline di training di modelli riproducibili
      • Convalida, profilatura e verifica dimostrabili del modello prima del rilascio
      • Implementazione di livello aziendale e osservabilità integrata inclusi tutti gli elementi necessari per rispettare tutte le indicazioni di sicurezza appropriate 
  • ONNX Runtime con TensorRT: Siamo felici di annunciare la disponibilità generale di ONNX Runtime, il provider di esecuzione TensorRT per NVIDIA in ONNX Runtime, per consentire agli sviluppatori di sfruttare con facilità l'accelerazione GPU leader di settore indipendentemente dal framework scelto. Gli sviluppatori possono accelerare le inferenze dei modelli ONNX, che possono essere esportati o convertiti da PyTorch, TensorFlow e molti altri framework più diffusi.  ONNX Runtime in combinazione con il rispettivo provider di esecuzione TensorRT accelera l'inferenza di modelli di Deep Learning su hardware NVIDIA. Ciò consente agli sviluppatori di eseguire modelli ONNX in diversi tipi di hardware e di creare applicazioni con la flessibilità necessaria per specificare come destinazione diverse configurazioni hardware. L'architettura astrae i dettagli delle librerie specifiche dell'hardware essenziali per l'ottimizzazione dell'esecuzione di reti neurali profonde.
  • Modelli con accelerazione hardware basati su FPGA: gli FPGA sono un'opzione di inferenza di Machine Learning basata su Project Brainwave, un'architettura hardware di Microsoft. I data scientist e gli sviluppatori possono usare FPGA per accelerare i calcoli in tempo reale per l'intelligenza artificiale. Questi modelli con accelerazione hardware sono ora disponibili a livello generale sul cloud, insieme a un'anteprima  dei modelli distribuiti in Data Box Edge. Gli FPGA offrono prestazioni, flessibilità e scalabilità e sono disponibili solo tramite Azure Machine Learning. Consentono di ottenere una bassa latenza per richieste di inferenza in tempo reale, riducendo la necessità di richieste asincrone (invio in batch).

Altre informazioni

  • Azure Machine Learning
  • Features

Prodotti correlati