Data Factory

大規模スケールでのハイブリッド データ統合を簡単に

Azure Data Factory をご利用いただいているお客様

概要

Azure Data Factory は、クラウド内やセルフホステッド ネットワーク内でデータが存在する場所では常に、大規模スケールで ETL/ELT ワークフローを作成、スケジュール、調整できる、ハイブリッド データ統合サービスです。 ADF の豊富な機能を利用して、セキュリティとコンプライアンスのニーズに応えます。

取り込みと準備

世界規模でデプロイされている、クラウドのデータ移動サービスである Azure Data Factory を使用すると、複数のオンプレミスのソースおよびクラウド ソースからデータを取り込むことができます。データが存在する場所では常にデータ統合のワークフローを調整し、複数のデータ コネクタを使用してデータ統合を加速し、データの取り込みと同時にデータの準備とパーティション化を実行したり事前処理手順を適用したりできます。

変換と分析

データの変換と分析のプロセスをスケジュールして管理します。ジョブに最適なツールを使用するために、豊富な処理サービスから適切なものを選択し、それらを組み合わせて、管理されたデータ パイプラインを配置できます。たとえば、ビッグ データや半構造化データには Hadoop 処理手順を、構造化データにはストアド プロシージャ呼び出し手順を、分析には機械学習手順を追加できます。あるいは、処理手順として独自のカスタム コードを任意のパイプラインに挿入することもできます。

発行と利用

データ パイプラインを使用して、生データを完成データや整形データに変換し、BI ツールやアプリケーションで利用できるようにします。貴重なデータを必要な場所に移動して、オンプレミスやクラウドのアプリケーションとサービスで利用できるようになります。

監視と管理

データ パイプラインのネットワークをひと目で把握できるように監視、管理すれば、問題を見分けて必要なアクションを起こせます。いつ、どこからデータが到着するか、いつ、どのように処理の準備が整うかを簡単に理解できます。Data Factory サービス全体の正常性を監視するためのアラートをセットアップできます。オンデマンドのクラウド リソース管理によってデータ パイプラインを自動化し、時間と費用を節約できます。

関連製品およびサービス

HDInsight

クラウド Hadoop 、Spark、R Server、HBase、および Storm クラスターのプロビジョニング

Machine Learning Studio

予測分析ソリューションを簡単に構築、デプロイ、管理

Stream Analytics

数百万の IoT デバイスからのデータ ストリームをリアルタイムで処理

すぐに Data Factory を使ってみる