Avançar para o conteúdo principal
JÁ DISPONÍVEL

Novas funcionalidades do Azure Machine Learning agora disponíveis

Data de publicação: 06 maio, 2019

As funcionalidades incluem:

  • Capacidade de Interpretação de Modelos – a capacidade de interpretação do Machine Learning permite aos cientistas de dados explicar os modelos de machine learning globalmente em todos os dados ou localmente num ponto de dados específico através de avançadas tecnologias de forma dimensionável e fácil de utilizar.  A capacidade de interpretação do Machine Learning incorpora tecnologias desenvolvidas pela Microsoft e bibliotecas de terceiros comprovadas (por exemplo, SHAP e LIME). O SDK cria uma API comum nas bibliotecas integradas e incorpora os serviços do Azure Machine Learning. Ao utilizar este SDK, pode explicar os modelos de machine learning globalmente em todos os dados ou localmente num ponto de dados específico através de avançadas tecnologias de forma dimensionável e fácil de utilizar.
  • Previsão através do ML Automatizado, dos avanços do ML Automatizado e do ML Automatizado suportado no Databricks, CosmosDB e HDInsight –
    • o ML Automatizado automatiza partes do fluxo de trabalho do ML, o que permite reduzir o tempo de criação de modelos de ML e libertar os cientistas de dados para se concentrarem no seu trabalho importante, enquanto simplificam o ML e o disponibilizam a um público mais vasto. Anunciámos:
    • A previsão está agora em Disponibilidade Geral, com novas funcionalidades
    • Integrações do Databricks, SQL, CosmosDB e HDInsight
    • A explicabilidade está agora em Disponibilidade Geral, com desempenho melhorado
  • Integração do .NET – a versão ML.NET 1.0 é o primeiro marco importante de uma grande jornada iniciada em maio de 2018 quando lançámos o ML.NET 0.1 como código aberto. Desde então, temos vindo a lançar novas versões mensalmente, 12 versões de pré-visualização mais esta versão 1.0 final. O ML.NET é uma arquitetura de aprendizagem automática de código aberto e para várias plataformas para programadores de .NET. Através do ML.NET, os programadores podem tirar partido das ferramentas e conjuntos de competências existentes para desenvolver e incluir IA personalizada nas respetivas aplicações ao criarem modelos de machine learning personalizados para cenários comuns como Análise de Sentimentos, Recomendação, Classificação de Imagens e muito mais. Pode utilizar o NimbusML, os enlaces Python do ML.NET, para utilizar o ML.NET com o Azure Machine Learning. O NimbusML permite aos cientistas de dados utilizar o ML.NET para preparar modelos no Azure Machine Learning ou onde quer que utilizem o Python. O modelo de machine learning preparado pode ser facilmente utilizado numa aplicação .NET com o ML.NET PredictionEngine, como neste exemplo.
  • Suporte do Azure DevOps de qualidade superior para experimentações, pipelines, registo de modelos, validação e implementação: O Azure Machine Learning tem uma missão para simplificar o ciclo de vida de aprendizagem automática ponto a ponto, incluindo preparação de dados, preparação de modelos, empacotamento de modelos, validação e implementação de modelos. Para tal, estamos a lançar os seguintes serviços:
    • Controlo de versões de Ambiente, Código e Dados, integrado no Registo de Auditoria do Azure ML
    • Extensão do Azure DevOps para o Machine Learning e CLI do Azure ML
    • Experiência simplificada para validar e implementar modelos de ML. A Microsoft permite-lhe adotar rapidamente o ML ao acelerar o seu tempo para uma solução de ML nativa da cloud pronta para produção. A preparação da produção é definida como:
      • Pipelines de preparação de modelos reproduzíveis
      • Provavelmente validar, criar perfis e monitorizar o modelo antes do lançamento
      • Implementação de classe empresarial e capacidade de observação integrada, incluindo tudo o que é necessário para as orientações de segurança adequadas 
  • ONNX Runtime com TensorRT: Estamos entusiasmados por anunciar a Disponibilidade Geral do ONNX Runtime, o fornecedor de execução NVIDIA TensorRT no ONNX Runtime, que permite aos programadores tirar facilmente partido da aceleração de GPU líder do setor, independentemente da escolha de arquitetura. Os programadores podem acelerar a inferência de modelos do ONNX, os quais podem ser exportados ou convertidos a partir do PyTorch, do TensorFlow e de muitas outras arquiteturas populares.  Em conjunto com o seu fornecedor de execução TensorRT, o ONNX Runtime acelera a inferência de modelos de aprendizagem profunda em hardware NVIDIA. Isto permite aos programadores executar modelos do ONNX em diferentes elementos de hardware e criar aplicações com a flexibilidade de poderem ter diferentes configurações de hardware. A arquitetura elimina os detalhes das bibliotecas de hardware específicas essenciais para otimizar a execução de redes neurais profundas.
  • Modelos Acelerados por Hardware baseados em FPGA: Os FPGAs são uma opção de inferência de aprendizagem automática, baseada no Project Brainwave, uma arquitetura de hardware da Microsoft. Os cientistas de dados e programadores podem utilizar FPGAs para acelerar os cálculos de IA em tempo real. Estes Modelos Acelerados por Hardware estão agora em disponibilidade geral na cloud, juntamente com uma pré-visualização de modelos implementados no Data Box Edge. Os FPGAs proporcionam desempenho, flexibilidade e dimensionamento e estão disponíveis apenas através do Azure Machine Learning. Tornam possível alcançar baixas latências para pedidos de inferência em tempo real, de forma a reduzir a necessidade de pedidos assíncronos (colocação em lotes).

Obter mais informações

  • Azure Machine Learning
  • Features

Produtos Relacionados