跳到主内容
现已推出

现已推出 Azure 机器学习的新功能

发布日期:五月 06, 2019

功能包括:

  • 模型可解释性 - 机器学习可解释性使数据科学家能够针对所有数据全面地解释机器学习模型,或者使用极先进的技术以易于使用和可缩放的方式针对特定数据点在本地进行解释。  机器学习可解释性结合 Microsoft 开发的技术和经验证的第三方库,例如 SHAP 和 LIME。SDK 在集成库中创建了常用 API,并集成了 Azure 机器学习服务。使用此 SDK,可针对所有数据全面地解释机器学习模型,或者使用极先进的技术以易于使用和可缩放的方式针对特定数据点在本地进行解释。
  • 通过 AutomatedML、自动化 ML 改进及在 Databricks、CosmosDB 和 HDInsight 上支持的 AutomatedML 进行预测 -
    • 自动化 ML 自动执行部分 ML 工作流,可减少 ML 模型的构建时间,使数据科学家能够专注于他们的重要工作,同时简化 ML 并扩大受众范围。我们宣布:
    • 现正式发布预测,提供新的功能
    • Databricks、SQL、CosmosDB 和 HDInsight 集成
    • 现正式发布可解释性功能,其性能已得到改进
  • .NET 集成 2018 年 5 月我们将 ML.NET 0.1 作为开放源代码进行发布,自此开始进入伟大的开放源代码旅程,ML.NET 1.0 版本是这一旅程的第一个重要里程碑。从那时起,我们每月都会发布新版本,已发布 12 个预览版以及最终的 1.0 版本。ML.NET 是开放源代码的跨平台机器学习框架,适用于 .NET 开发者。使用 ML.NET,开发者可以利用其现有工具和技能组合,通过为情绪分析、建议、图像分类等常见情景创建自定义机器学习模型,开发自定义 AI 并将其融合到他们的应用程序中。 可使用 NimbusML(ML.NET Python 绑定),将 ML.NET 与 Azure 机器学习配合使用。NimbusML 使数据科学家能够使用 ML.NET 在 Azure 机器学习或任何其他使用 Python 的地方训练模型。经过训练后的机器学习模型可以轻松用于具有 ML.NET PredictionEngine 的 .NET 应用程序中,如此示例
  • 用于试验、管道、模型注册、验证和部署的一流 Azure DevOps 支持: Azure 机器学习的使命是简化端到端机器学习生命周期,包括数据准备、模型训练、模型打包、验证和模型部署。为此,我们将推出以下服务:
    • 集成到 Azure ML 审核跟踪的环境、代码和数据版本控制服务
    • 适用于机器学习的 Azure DevOps 扩展和 Azure ML CLI
    • 用于验证和部署 ML 模型的简化体验。 借助 Microsoft,通过加快生产就绪的云 - 本机 ML 解决方案的实现,可快速采用 ML。生产准备情况如下定义:
      • 可再生产的模型训练管道
      • 在发布之前证明性地验证、分析并跟踪模型
      • 企业级推出和集成的可观察性,包括有关所有适当的安全指南的全部必需内容 
  • 具有 TensorRT 的 ONNX 运行时:我们很高兴地宣布正式发布 ONNX 运行时,这是 ONNX 运行时中的 NVIDIA TensorRT 执行提供程序,使开发者无论选择何种框架,都能轻松利用业界领先的 GPU 加速。开发者可以加速 ONNX 模型的推断,这些模型可从 PyTorch、TensorFlow 和许多其他常用框架中导出或转换。  ONNX 运行时与其 TensorRT 执行提供程序一起可加速 NVIDIA 硬件上深度学习模型的推断。这使开发者能够在不同风格的硬件上运行 ONNX 模型,并针对不同的硬件配置灵活地构建应用程序。体系结构提取出对深度神经网络执行优化至关重要的特定于硬件的库的详细信息。
  • 基于 FPGA 的硬件加速模型: FPGA 是一种机器学习推断方式,基于 Microsoft 提供的硬件体系结构 Project Brainwave。数据科学家和开发者可以使用 FPGA 来加速实时 AI 计算。 这些硬件加速模型现已在云端正式推出,同时提供部署到 Data Box Edge 的模型预览FPGA 提供性能、灵活性和可缩放性,并且只能通过 Azure 机器学习获得。FPGA 可以实现低延迟的实时推断请求,这样可减少对异步请求(批处理)的需求。

了解更多

  • Azure 机器学习
  • Features