주 콘텐츠로 건너뛰기
지금 이용 가능

이제 Azure Machine Learning이 출시되었습니다.

게시된 날짜: 5월 06, 2019

기능은 다음과 같습니다.

  • 모델 해석 기능 - 데이터 과학자는 기계 학습 해석 기능을 통해 최신 기술을 사용하여 사용하기 쉽고 확장 가능한 방법으로 전체적으로 모든 데이터 또는 로컬로 특정 데이터 요소의 기계 학습 모델을 설명할 수 있습니다.  기계 학습 해석 기능은 Microsoft가 개발하고 타사 라이브러리(예: SHAP 및 LIME)가 입증한 기술을 활용합니다. SDK는 통합 라이브러리에서 일반 API를 만들며 Azure Machine Learning Service를 통합합니다. SDK를 통해 최신 기술을 사용하여 사용하기 쉽고 확장 가능한 방법으로 전체적으로 모든 데이터 또는 로컬로 특정 데이터 요소의 기계 학습 모델을 설명할 수 있습니다.
  • Databricks, CosmosDB 및 HDInsight에서 지원되는 자동화된 ML, 자동화된 ML 향상된 기능, 자동화된 ML을 통한 예측 –
    • 자동화된 ML은 ML 워크플로의 일부를 자동화하여 ML 모델을 빌드하는 데 소요되는 시간을 절약하고, 데이터 과학자가 중요한 작업에 집중할 수 있도록 도와주고, ML을 간소화하며 더 많은 대상에게 공개합니다. 발표한 내용은 다음과 같습니다.
    • 새 기능이 추가된 예측을 일반 공급으로 제공
    • Databricks, SQL, CosmosDB, HDInsight 통합
    • 성능이 향상된 설명을 일반 공급으로 제공
  • .NET 통합 ML.NET 1.0 릴리스는 ML.NET 0.1을 오픈 소스로 릴리스할 당시 2018년 5월에 시작된 대규모 여정의 첫 번째 주요 마일스톤입니다. 이후 매월 릴리스하여 지금까지 12개의 미리 보기 릴리스와 이번 최종 1.0 릴리스를 공개했습니다. ML.NET은 .NET 개발자를 위한 오픈 소스이자 플랫폼 간 기계 학습 프레임워크입니다. 개발자는 ML.NET을 통해 기존 도구와 기술을 활용하여 감정 분석, 권장 사항, 이미지 분류 등의 일반적인 시나리오의 사용자 지정 기계 학습 모델을 만들어 사용자 지정 AI를 개발하고 애플리케이션에 통합할 수 있습니다. ML.NET Python 바인딩인 NimbusML을 사용하여 Azure Machine Learning으로 ML.NET을 사용할 수 있습니다. 데이터 과학자는 NimbusML을 통해 ML.NET을 사용하여 Azure Machine Learning 또는 Python을 사용하는 어디에서든 모델을 학습시킬 수 있습니다. 학습된 기계 학습 모델은 이 예와 같은 ML.NET PredictionEngine과 함께 .NET 애플리케이션에서 간편하게 사용할 수 있습니다.
  • 실험, 파이프라인, 모델 등록, 유효성 검사, 배포를 위한 첫 번째 클래스 Azure DevOps 지원: Azure Machine Learning의 목표는 데이터 준비, 모델 학습, 모델 패키징, 유효성 검사, 모델 배포를 비롯한 전반적인 기계 학습 수명 주기를 간소화하는 것입니다. 이 목표를 실현하기 위해 Microsoft가 출시하는 서비스는 다음과 같습니다.
    • Azure ML 감사 내역에 통합된 환경, 코드 및 데이터 버전 관리 서비스,
    • 기계 학습을 위한 Azure DevOps 확장 Azure ML CLI 및
    • ML 모델 유효성 검사배포를 위한 간소화된 환경. 사용자는 Microsoft를 통해 프로덕션 준비, 클라우드 네이티브 ML 솔루션을 위한 시간을 단축하여 빠르게 ML을 채택할 수 있습니다. 프로덕션 준비의 정의는 다음과 같습니다.
      • 재현 가능한 모델 학습 파이프라인
      • 릴리스 이전에 입증할 수 있는 유효성 검사, 프로필, 추적 모델
      • 적합한 모든 보안 지침 준수에 필요한 모든 사항을 포함한 엔터프라이즈급 출시 및 통합된 가시성 
  • TensorRT를 포함한 ONNX 런타임: ONNX 런타임에서 NVIDIA TensorRT 실행 공급자인 ONNX 런타임을 일반 공급하게 되었다는 기쁜 소식을 알려드립니다. 개발자는 선택한 프레임워크와 상관없이 ONNX 런타임을 통해 업계 최고의 GPU 가속화를 간편하게 활용할 수 있습니다. 개발자는 PyTorch, TensorFlow 및 기타 여러 가지 자주 사용하는 프레임워크에서 내보내거나 변환할 수 있는 ONNX 모델의 유추를 가속화할 수 있습니다.  ONNX 런타임은 해당 TensorRT 실행 공급자와 함께 NVIDIA 하드웨어에서 딥 러닝 모델의 유추를 가속화합니다. 이를 통해 개발자는 다양한 버전의 하드웨어에서 ONNX 모델을 실행하고 유연하게 애플리케이션을 빌드하여 다양한 하드웨어 구성을 대상으로 지정할 수 있습니다. 이 아키텍처는 심층 신경망 실행을 최적화하는 데 꼭 필요한 하드웨어 특정 라이브러리의 세부 정보를 추출합니다.
  • FPGA 기반 하드웨어 가속 모델: FPGA는 Microsoft의 하드웨어 아키텍처인 Project Brainwave를 기반으로 하는 기계 학습 유추 옵션입니다. 데이터 과학자와 개발자는 FPGA를 사용하여 실시간 AI 계산 시간을 가속화할 수 있습니다. 이제 이 하드웨어 가속 모델은 Data Box Edge에 배포된 모델의 미리 보기와 함께 클라우드에 일반 공급됩니다. FPGA는 성능, 유연성, 크기 조정 기능을 제공하며 Azure Machine Learning을 통해서만 이용할 수 있습니다. FPGA를 통해 실시간 유추 요청의 대기 시간을 절감하여 비동기 요청(일괄 처리)의 필요성을 줄일 수 있습니다.

자세한 정보

  • Azure Machine Learning
  • Features