Pular para o conteúdo principal
JÁ DISPONÍVEL

Novos recursos para o Azure Machine Learning agora estão disponíveis

Data da publicação: 06 maio, 2019

Os recursos incluem:

  • Capacidade de interpretação de modelo – a capacidade de interpretação do Machine Learning permite que os cientistas de dados expliquem modelos de machine learning globalmente em todos os dados ou localmente em um ponto de dados específico usando tecnologias de ponta de maneira escalonável e fácil de usar.  A capacidade de interpretação do Machine Learning incorpora tecnologias desenvolvidas pela Microsoft e bibliotecas de terceiros comprovadas (por exemplo, SHAP e LIME). O SDK cria uma API comum entre as bibliotecas integradas e integra serviços do Azure Machine Learning. Usando esse SDK, você pode explicar modelos de machine learning globalmente em todos os dados ou localmente em um ponto de dados específico usando tecnologias de ponta de maneira escalonável e fácil de usar.
  • Previsão por meio de ML Automatizado, avanços de ML Automatizado e ML Automatizado compatível com Databricks, CosmosDB e HDInsight –
    • O ML Automatizado automatiza partes do fluxo de trabalho de ML, reduzindo o tempo para criar modelos de ML, liberando os cientistas de dados para concentrarem-se no seu trabalho importante e, ao mesmo tempo, simplificando o ML e abrindo-o para um público-alvo mais amplo. Anunciamos:
    • a previsão agora está em disponibilidade geral, com novos recursos
    • Integrações do Databricks, do SQL, do CosmosDB e do HDInsight
    • A capacidade de explicação agora está em disponibilidade geral, com desempenho aprimorado
  • Integração do .NET A versão do ML.NET 1.0 é o primeiro marco importante de uma grande jornada que começou em maio de 2018, quando lançamos o ML.NET 0.1 como software livre. Desde então, os lançamentos foram mensais, com 12 versões prévias mais esta versão 1.0 final. O ML.NET é uma estrutura open-source de aprendizado de máquina multiplataforma para desenvolvedores de .NET. Usando o ML.NET, os desenvolvedores podem aproveitar suas ferramentas e conjuntos de habilidades existentes para desenvolver e infundir IA personalizada em seus aplicativos criando modelos de machine learning personalizados para cenários comuns, como Análise de Sentimento, Recomendação, Classificação de Imagem, entre outros. Você pode usar o NimbusML, as associações ML.NET do Python, para usar o ML.NET com o Azure Machine Learning. O NimbusML permite aos cientistas de dados usar o ML.NET para treinar modelos no Azure Machine Learning ou qualquer outro lugar em que usem Python. O modelo de machine learning treinado pode ser facilmente usado em um aplicativo .NET com o PredictionEngine do ML.NET como este exemplo.
  • Suporte de primeira classe ao Azure DevOps para experimentos, pipelines, registro de modelo, validação e implantação: O Azure Machine Learning tem a missão de simplificar o ciclo de vida de aprendizado de máquina de ponta a ponta, incluindo preparação de dados, treinamento de modelo, empacotamento de modelo, validação e implantação de modelo. Para habilitar isso, estamos lançando os seguintes serviços:
    • Serviços de controle de versão de Ambiente, Código e Dados, integrados à Trilha de Auditoria do Azure ML 
    • A extensão do Azure DevOps para Machine Learning e a CLI do Azure ML e
    • Uma experiência simplificada para validar e implantar modelos de ML. A Microsoft permite que você adote ML rapidamente acelerando seu tempo para obter uma solução de ML nativa da nuvem pronta para produção. A preparação para produção é definida como:
      • Pipelines de treinamento de modelo reproduzíveis
      • Validar, criar perfil e rastrear de modo comprovado o modelo antes do lançamento
      • Distribuição de classe empresarial e capacidade de observação integrada, incluindo respeitar todas as diretrizes de segurança adequadas 
  • ONNX Runtime com TensorRT: Temos a satisfação de anunciar a disponibilidade geral do ONNX Runtime, o provedor de execução do NVIDIA TensorRT no ONNX Runtime, permitindo aos desenvolvedores facilmente aproveitar a aceleração de GPU líder do setor, independentemente da escolha de estrutura. Os desenvolvedores podem acelerar a inferência de modelos ONNX, que podem ser exportados ou convertidos do PyTorch, do TensorFlow e de muitas outras estruturas populares.  O ONNX Runtime, junto com seu provedor de execução TensorRT, acelera a inferência de modelos de aprendizado profundo e hardware NVIDIA. Isso permite aos desenvolvedores executar modelos ONNX entre diferentes tipos de hardware e criar aplicativos com a flexibilidade para ter diferentes configurações de hardware como destino. A arquitetura abstrai os detalhes das bibliotecas específicas de hardware que são essenciais para otimizar a execução de redes neurais profundas.
  • Modelos de Aceleração de Hardware baseados em FPGA: FPGAs são uma opção de inferência de aprendizado de máquina baseada em Project Brainwave, uma arquitetura de hardware da Microsoft. Cientistas de dados e desenvolvedores podem usar FPGAs para acelerar cálculos de IA em tempo real. Esses Modelos de Aceleração de Hardware agora estão em disponibilidade geral na nuvem, junto com uma versão prévia de modelos implantados para o Data Box Edge. Os FPGAs oferecem desempenho, flexibilidade e escala e estão disponíveis apenas por meio do Azure Machine Learning. Eles possibilitam atingir baixa latência para solicitações de inferência em tempo real, atenuando a necessidade de solicitações assíncronas (envio em lote).

Saiba mais

  • Azure Machine Learning
  • Features

Produtos relacionados