Could you give me an example on how billing works?

If you run a cluster for 100 hours in US East with two D13 v2 head nodes, three D12 v2 data nodes, and three D11 v2 zookeepers, the billing would be the following in the two scenarios:

  • On a Standard HDInsight cluster—100 hours x (2 x $-/hour + 3 x $-/hour + 3 x $-/hour) = $-
  • On a Standard HDInsight cluster with Enterprise Security Package—100 hours x (2 x $-/hour + 3 x $-/hour + 3 x $-/hour) + 100 hours x (2 x 8 + 3 x 4 + 3 x 2) x $-/core-hour = $-

関連する質問と回答

  • いくつまで HDInsight データ ノードを作成できるかは、サブスクリプションごとに既定の上限があります。現在のサブスクリプションの最大値を合算で超えるような、大きな HDInsight クラスターまたは複数の HDInsight クラスターを作成する必要がある場合は、サブスクリプションの利用上限を増やすように要求することができます。サポートの種類を「課金」としてサポート チケットを開いてください。要求したサブスクリプションごとの最大ノード数に基づいて、デプロイを最適化するために必要な追加の情報を要求される場合があります。

  • データ ノードの数は、必要性によって異なります。Azure Cloud Services が提供する弾力性を活用してさまざまなクラスター サイズを試せるため、パフォーマンスとコストの最適なバランスを決定できます。また、その時に使った内容に対してのみ料金がかかります。また、クラスターは、ワークロードの要件に合わせてオンデマンドで拡大/縮小できます。

  • さまざまなサイズのクラスターのコストを見積もるには、Azure 計算ツールを試してください。

  • クラスターの実行時間に対して、分単位で料金がかかります。時間は、1 時間単位ではなく 1 分単位で四捨五入されます。

  • HDInsight は、クラスター タイプごとに異なる数のノードをデプロイします。特定のクラスター タイプの中には、さまざまなノードのための異なる複数のロールがあります。それらによりお客様は、自分のワークロードの詳細にふさわしい特定のロールでそれらのノードのサイズを調整できます。たとえば、Hadoop クラスターにおいて実行する分析がメモリ消費型のものである場合、大量のメモリを備えたワーカー ノードを用意することができます。 HDInsight の Hadoop クラスターは、以下の 2 つのロールによりデプロイできます。

    • ヘッド ノード (2 ノード)
    • データ ノード (少なくとも 1 ノード) HDInsight 用 HBase クラスターは、以下の 3 つのロールによりデプロイできます。
    • ヘッド サーバー (2 ノード)
    • リージョン サーバー (少なくとも 1 ノード)
    • Master/Zookeeper ノード (3 ノード) HDInsight 用 Storm クラスターは、以下の 3 つのロールによりデプロイできます。
    • Nimbus ノード (2 ノード)
    • Supervisor サーバー (少なくとも 1 ノード)
    • Zookeeper ノード (3 ノード) HDInsight 用 Spark クラスターは、以下の 3 つのロールでデプロイされます。
    • ヘッド ノード (2 ノード)
    • ワーカー ノード (少なくとも 1 ノード)
    • Zookeeper ノード (3 ノード) (A1 Zookeeper では無料) R Server の利用には、クラスター デプロイ アーキテクチャに加えて 1 台のエッジ ノードの料金がかかります。
  • HDInsight クラスターを停止するためには、クラスターを削除する必要があります。既定では、HDInsight クラスターが運用する全データは Azure Blob Storage に存在するため、データがこの影響を受けることはありません。Hive メタデータ (テーブル、スキーマ) を保持する場合は、外部のメタデータ ストアでクラスターをプロビジョニングする必要があります。詳細については、このドキュメントをご覧ください。