Could you give me an example on how billing works?

If you run a cluster for 100 hours in US East with two D13 v2 head nodes, three D12 v2 data nodes, and three D11 v2 zookeepers, the billing would be the following in the two scenarios:

  • On a Standard HDInsight cluster—100 hours x (2 x $-/hour + 3 x $-/hour + 3 x $-/hour) = $-
  • On a Standard HDInsight cluster with Enterprise Security Package—100 hours x (2 x $-/hour + 3 x $-/hour + 3 x $-/hour) + 100 hours x (2 x 8 + 3 x 4 + 3 x 2) x $-/core-hour = $-

HDInsight

相关问题和解答

  • 对于所能创建的 HDInsight 数据节点的数目,每个订阅均有默认限制。如果你需要创建较大的 HDInsight 群集或多个 HDInsight 群集,其节点总数超过了当前订阅的最大值,则可以请求提高订阅的计费限制。请打开“支持类型”为“计费”的支持票证。根据你请求的每订阅最大节点数,我们可能要求你提供更多信息,以便我们能够优化你的部署。

  • 数据节点数量视你的需求而变化。凭借 Azure 云服务的良好灵活性,你可以尝试多种不同的群集大小,以确定性能和成本的最佳组合,只需为在特定时间使用的服务付费。也可以按需缩放群集,以满足工作负载的要求。

  • 若要估算不同大小的群集的成本,请尝试使用 Azure 计算器

  • 收费针对的是群集运行的分钟数(四舍五入到最接近的分钟),而不是小时。

  • HDInsight 针对每个群集类型部署不同数量的节点。在给定群集类型中有用于各种节点的不同角色,使客户能够将给定角色中的节点大小调整为适合其工作负载详情。例如,如果执行的分析类型大量占用内存,那么 Hadoop 群集可将其工作节点设置为具有大量内存。 适用于 HDInsight 的 Hadoop 群集部署有两个角色:

    • 头节点(2 个节点)
    • 数据节点(至少 1 个节点) 适用于 HDInsight 的 HBase 群集部署有三个角色:
    • 控制服务器(2 个节点)
    • 区域服务器(至少 1 个节点)
    • 主节点/ZooKeeper 节点(3 个节点) 适用于 HDInsight 的 Storm 群集部署有三个角色:
    • Nimbus 节点(2 个节点)
    • 监管服务器(至少 1 个节点)
    • ZooKeeper 节点(3 个节点) 适用于 HDInsight 的 Spark 群集部署有三个角色:
    • 头节点(2 个节点)
    • 工作节点(至少 1 个节点)
    • Zookeeper 节点(3 个节点)(A1 Zookeeper 免费) 除了群集部署结构,使用 R-Server 还将会产生一个边缘节点。
  • 若要停止 HDInsight 群集,则必须删除该群集。默认情况下,HDInsight 群集操作的所有数据均位于 Azure Blob 存储中,因此数据将不受影响。如果希望保留 Hive 元数据(表、架构),则应该借助外部元数据商店设置群集。你可以在本文档中找到更多详细信息。