Tarification Data Lake Analytics

Service de travaux d’analyse à la demande pour agir en connaissance de cause

Azure Data Lake Analytics est le premier service cloud d’analytique Serverless basé sur des travaux dans lequel vous pouvez facilement développer et exécuter des programmes de traitement et de transformation des données massivements parallèles écrits en U-SQL, R, Python et .Net sur plusieurs pétaoctets de données. Sans aucune infrastructure à gérer, vous pouvez traiter les données à la demande, vous adapter rapidement au volume à gérer et ne payer qu’en fonction des tâches effectuées.

Détails de la tarification

Paiement à l’utilisation

Le paiement à l’utilisation vous permet de payer à la seconde sans engagement à long terme.

Utilisation Tarif
Unité Analytique $-/heure

Packages d’engagement mensuel

Les packages d’engagement mensuel offrent une remise significative (jusqu’à 74 %) par rapport au paiement à l’utilisation.

Unités-heures Analytique incluses Prix/mois Économies par rapport au paiement à l’utilisation Price Per Analytic Unit Overage Price Per Analytic Unit
100 $- $- $-
500 $- $- $-
1 000 $- $- $-
5 000 $- $- $-
10 000 $- $- $-
50 000 $- $- $-
100 000 $- $- $-
> 100 000 Nous contacter

Support technique et contrat SLA

  • Support technique gratuit pour la gestion de la facturation et des abonnements.
  • Plans de support technique flexibles à partir de $29/mois. Rechercher un plan
  • Disponibilité d’Azure Data Lake Analytics 99,9 % du temps. Lire le contrat SLA

Forum Aux Questions

  • Une unité Azure Data Lake Analytics (AU) est une unité de calcul mise à la disposition de votre travail U-SQL. Chaque unité AU donne à votre travail un accès à un ensemble de ressources sous-jacentes, telles que le processeur ou la mémoire. En savoir plus les unités AU

  • Lorsque vous créez un travail, vous devez allouer des unités UA pour l’exécution de celui-ci. Un travail passe par 4 phases principales : la préparation, la mise en file d’attente, l’exécution et la finalisation. Il s’exécute une fois que les unités AU allouées sont disponibles. Des unités UA vous sont facturées pour la durée des phases d’exécution et de finalisation du travail. En savoir plus les unités AU

  • Vous devez soigneusement allouer le nombre d’unités AU correspondant à vos besoins. Lorsque le nombre d’unités AU augmente, des ressources de calcul supplémentaires sont mises à la disposition de votre travail. Cela n’a toutefois pas pour effet d’augmenter le parallélisme inhérent du travail. Selon les caractéristiques du travail (par exemple le degré de parallélisme, le volume de données traitées, etc.), vous pouvez observer que vos travaux s’exécutent plus rapidement avec plus d’unités AU. Vous pouvez également allouer un nombre d’unités AU qui est supérieur à ce qu’il est possible d’utiliser. Azure Data Lake Tools pour Visual Studio fournit plusieurs outils pour vous aider à diagnostiquer les performances de vos travaux U-SQL et à estimer le nombre optimal d’unités AU. En savoir plus sur les économies d’argent et le contrôle des coûts

  • Le prix est déterminé par le nombre d’unités Analytique et la durée du travail. Prenons deux exemples :

    • Exemple 1 : le délai d’exécution du travail étant de 3 heures avec 10 unités AU, le prix est calculé comme suit : 3 * 10 = 30 heures d’unités AU. Si le travail peut tirer parti de 20 unités AU et s’exécuter deux fois plus vite, le prix est calculé comme suit : 1,5 * 20 = 30 heures d’unités AU. Dans ce cas, le prix est identique, mais la latence est plus élevée.
    • Exemple 2 : le délai d’exécution du travail étant de 5 heures avec 10 unités AU, le prix est calculé comme suit : 5 * 10 = 50 heures d’unités AU. Si le délai d’exécution du travail est de 4 heures avec 20 unités AU, le prix est calculé comme suit : 4 * 20 = 80 heures d’unités AU. Dans ce cas, le coût total augmente de 80 % alors que votre travail s’est terminé une heure plus tôt.
  • Les transactions Azure Data Lake Storage Gen1 sont facturées chaque fois que vous lisez ou écrivez des données dans le service. Chaque fois qu’un utilisateur, une application ou un autre service Azure lit ou écrit des données ayant une taille jusqu’à 4 Mo, une seule transaction est facturée. Par exemple, si une opération d’écriture place 128 Ko de données dans Data Lake Storage Gen1, elle est comptabilisée sur la facture comme une seule transaction. Les transactions sont facturées en incréments allant jusqu'à 4 Mo. Par conséquent, si un élément dépasse cette taille, il est facturé en plusieurs incréments. Par exemple, si une opération de lecture obtient 9 Mo de données de Data Lake Storage Gen1 , trois transactions sont facturées (4 Mo + 4 Mo + 1 Mo).

    Voyons comment les transactions s’affichent sur votre facture en fonction des opérations de lecture. Pour cela, prenez un scénario dans lequel votre application exécute un travail Data Lake Analytics pendant quatre heures par jour, tout en lisant 1,000 éléments par seconde lorsque le travail est en cours, chaque élément étant inférieur à 4 Mo. Dans le scénario ci-dessus, Data Lake Storage Gen1 est facturé pour les transactions de lecture (Data Lake Analytics lisant les données de Data Lake Storage Gen1). Vous êtes facturé comme suit :

    Élément Volume d’utilisation par mois Tarif par mois Coût mensuel
    Transactions de lecture à partir de Data Lake Analytics 1,000 éléments/seconde * 3,600 * 4 * 31 $- toutes les 10,000 transactions $-
    Coût total des transactions $-
  • Price is determined by the number of AUs you reserve for the month.

    • A billing cycle is aligned to calendar month. Therefore, it always starts the 1st day of the month and ends the last day of the month.
    • When you commit for the first time to a package, we will pro-rate the monthly price and AU-hours to the days left within that month. As an example, if you commit to a 1,000 AU-hour package and there are 10 days left within that month, you will immediately get 334 AU-hours (1,000 AU-hours / 30 days in a month x 10 day left) at a price of $- ($- / 31 days in a month x 10 day left). We pro-rate by 30 days for the AU-hours in a package and by 31 days for the price to make sure that the pro-rata is always in your favor.
    • Units in a package reset the 1st day of the month. As an example, if you commit to 100 AU-hours and you have 20 AU-hours left by the end of the month, your package will be reset to 100 AU-hours the day after. There is no roll-over for unused AU-hours.
    • You can choose a new package at any time. The change will be effective the first day of the next calendar month. This means that during a month if you have a package of 100 AU-hours and decide to commit to a 500 AU-hours package, this change will apply on the 1st day of the next calendar month. For the current calendar month, you will remain on the 100 AU-hours package.
    • We use "seconds" as the unit of measure for the consumption of your commitment package.
    • Once your package is consumed, you will be charged at the overage consumption rate.
  • La consommation est déterminée par le nombre d’unités AU et la durée du travail. La durée du travail dépend du nombre d’unités AU attribuées à celui-ci, ainsi que des caractéristiques du travail, telles que la taille des données et la complexité du calcul.

    • Exemple 1 : vous optez pour un package de 100 heures d’unités AU et soumettez un travail dont la durée d’exécution est de 2 heures et 30 minutes avec 1 unité AU. La consommation est calculée comme suit : 2,5 * 1 = 2,5 heures d’unités AU. Il vous reste alors 97,5 heures d’unités AU dans votre engagement.
    • Exemple 2 : vous optez pour un package de 100 heures d’unités AU et il vous reste juste 1 heure d’unités AU. Si vous soumettez un travail dont le délai d’exécution est de 2 heures avec 2 unités AU, le prix est calculé comme suit : 2 * 2 = 4 heures d’unités AU. Vous utilisez l’heure d’unités AU restante et vous êtes facturé pour les 3 heures d’unités AU supplémentaires au tarif du dépassement (1,5 * 3 = $-).

  • Azure Data Lake Analytics vous permet d’écrire et de lire des données à partir d’Azure Data Lake Storage Gen1, de Stockage Blob Azure et d’Azure SQL Database. L’utilisation de ces services par Azure Data Lake Analytics peut engendrer des frais standard (par exemple, transactions, transferts de données sortantes, etc.). Pour plus d’informations, consultez la page sur la tarification des services.

    • Annulation d’un travail :
      L’annulation est toujours le résultat d’une action délibérée du client ou d’une stratégie administrative définie par l’administrateur. Le service ADLA n’annule pas automatiquement les travaux, sauf dans le cas où un sommet atteint sa limite d’exécution de 5 heures (la limite de temps ne s’applique pas à un travail mais à un seul sommet). Lorsqu’un travail est annulé, nous vous facturons pour la durée d’exécution du travail.
    • Échec du travail :
      Les échecs de travail sont le résultat d’une erreur de l’utilisateur, ou parfois d’une erreur du service ADLA. Le code d’erreur d’un travail ayant échoué indique si l’échec est le résultat d’un utilisateur ou d’une erreur de service. Si le code d’erreur contient USER, l’échec est le résultat d’une erreur de l’utilisateur, auquel cas le service vous facture la durée d’exécution du travail. Toutefois, si l’erreur contient SYSTEM, l’échec est dû à une erreur du service ADLS et le travail ne vous est pas facturé.

Ressources

Estimer les frais mensuels pour vos services Azure.

Consulter le Forum Aux Questions sur les prix appliqués à Azure

En savoir plus sur Data Lake Analytics

Consulter les didacticiels et vidéos techniques, et d’autres ressources

Ajout à des fins d’estimation. Appuyez sur « v » pour afficher sur la calculatrice

Apprenez et créez avec un crédit de $200 et poursuivez gratuitement