Ignorez la navigation

Tarification Pipeline de données

Intégration facile des données hybrides à l’échelle de l’entreprise

Explorez un éventail de fonctionnalités d’intégration de données adaptées à vos besoins en termes d’échelle, d’infrastructure, de compatibilité, de performances et de budget : des services managés SQL Server Integration Services pour la migration fluide des projets SQL Server vers le cloud, aux pipelines de données serverless à grande échelle de toutes formes et tailles.

Explorez les options tarifaires

Appliquez des filtres pour personnaliser les options de tarification à vos besoins.

Les prix ne sont que des estimations et ne sont pas destinés à être des devis réels. Le prix réel peut varier selon le type de contrat conclu avec Microsoft, la date d'achat et le taux de change. Les prix sont calculés en dollars américains et convertis à l'aide des taux de clôture au comptant de Londres saisis au cours des deux jours ouvrables précédant le dernier jour ouvrable de la fin du mois précédent. Si les deux jours ouvrables précédant la fin du mois tombent un jour férié sur les principaux marchés, le jour de fixation des taux est généralement le jour précédant immédiatement les deux jours ouvrables. Ce taux s'applique à toutes les transactions du mois à venir. Connectez-vous au calculateur de prix Azure pour voir les prix en fonction de votre programme/offre actuel avec Microsoft. Contactez un spécialiste des ventes Azure pour plus d'informations sur les prix ou pour demander un devis. Consultez les questions fréquemment posées sur la tarification Azure.

Le prix des pipelines de données est calculé en fonction des éléments suivants :

  • Exécution et orchestration de pipeline
  • Exécution et débogage du flux de données
  • Nombre d’opérations Data Factory, telles que la création et la surveillance de pipelines

Exécution et orchestration de pipeline Data Factory

Les pipelines sont des flux de contrôle d’étapes discrètes appelées activités. Vous payez l’orchestration de pipeline de données par exécution d’activité et l’exécution d’activité par heures de runtime d’intégration. Le runtime d’intégration, qui est serverless dans Azure et autohébergé dans des scénarios hybrides, fournit les ressources de calcul utilisées pour exécuter des activités dans un pipeline. Le runtime d'intégration est facturé à la minute supérieure.

Par exemple, l’activité de copie Azure Data Factory peut déplacer les données dans divers magasins de données de manière sécurisée, fiable, performante et scalable. À mesure que le volume ou le débit de données augmente, le runtime d’intégration peut évoluer pour répondre à ces besoins.

Type Prix d’Azure Integration Runtime Prix du runtime d’intégration au VNET managé Azure Prix du runtime d’intégration auto-hébergé
Orchestration1 $- toutes les 1 000 exécutions $- toutes les 1 000 exécutions $- toutes les 1 000 exécutions
Activité de déplacement des données2 $-/DIU-heure $-/DIU-heure $-/heure
Activité de pipeline3 $-/heure

$-/heure

(Jusqu’à 50 activités de pipeline simultanées)

$-/heure

Activité de pipeline externe4 $-/heure $-/heure

(Jusqu’à 800 activités de pipeline simultanées)

$-/heure
1L’orchestration fait référence aux exécutions d’activité, aux exécutions de déclenchement et aux exécutions de débogage.
2L’utilisation de l’activité de copie pour sortir des données d’un centre de données Azure entraîne des frais de bande passante réseau supplémentaires, qui apparaissent sous la forme d’une ligne distincte relative à un transfert de données sortant sur votre facture. En savoir plus sur la tarification du transfert de données sortant.
3Les activités de pipeline s’exécutent sur le runtime d’intégration. Les activités de pipeline incluent la recherche, l’obtention de métadonnées, la suppression et les opérations de schéma pendant la création (connexion test, navigation dans la liste des dossiers et la liste des tables, l’obtention de schémas et la prévisualisation des données).
4Les activités de pipeline externes sont gérées sur le runtime d’intégration mais s’exécutent sur des services liés. Les activités externes incluent les Databricks, les procédures stockées, les activités HDInsight et bien plus encore. Pour obtenir la liste complète des activités externes, rendez-vous ici. Pour les activités de mappage de flux de données, veuillez vous reporter à la section « Exécution et débogage de flux de données Data Factory » ci-dessous.

Exécution et débogage Data Flow

Les flux Data Flow sont des composants conçus de manière graphique dans Data Factory pour permettre les transformations de données à l’échelle. Vous payez le temps d’exécution et de débogage du cluster Data Flow par heure de vCore. La taille minimale d’un cluster d’exécution Data Flow est de 8 vCores. L’exécution et le débogage sont facturés à la minute supérieure. Les artefacts de capture des données de changement sont facturés au tarif général pour les clusters 4-vCore pendant l’aperçu public de CDC.

Les objets de capture des changements de données (CDC) s’exécutent sur la même infrastructure de calcul de flux de données à l’aide d’une seule machine vCore à nœud 4. La même Data Flow remise de prix d’instance réservée s’applique également aux ressources CDC.

Type Tarif Réservation pendant un an
( % d’économies)
Réservation pendant trois ans
( % d’économies)
Usage général $- par heure de vCore $- par heure de vCore $- par heure de vCore
Mémoire optimisée $- par heure de vCore $- par heure de vCore $- par heure de vCore

Remarque : Des flux de données Data Factory sont également facturés pour le stockage sur disques managés et le stockage blob requis pour l’exécution et le débogage des flux de données.

Gestionnaire d'orchestration de flux de travail Azure Data Factory

Taille Capacité du flux de travail Processeur virtuel du planificateur Processeur virtuel worker Processeur virtuel du serveur web Prix par heure
Petit (D2v4) Jusqu’à 50 jours 2 2 2 $-
Grand (D4v4) Jusqu’à 1 000 DAG 4 4 4 $-

Nœud supplémentaire Processeur virtuel worker Prix par heure
Petit (D2v4) 2 $-
Grand (D4v4) 4 $-

Opérations Data Factory

Type Tarif Exemples
Lecture/écriture* $- toutes les 50 000 entités modifiées/référencées Lecture/écriture d’entités dans Azure Data Factory*
Surveillance $- tous les 50 000 enregistrements d’exécutions récupérés Monitoring des exécutions de pipelines, d’activités, de déclencheurs et de débogage**
* Les opérations de lecture/écriture pour les entités Azure Data Factory incluent la création, la lecture, la mise à jour et la suppression. Les entités incluent les jeux de données, les services liés, les pipelines, le runtime d’intégration et les déclencheurs.
** Les opérations de monitoring incluent l’obtention et le listage des exécutions de pipelines, d’activités, de déclencheurs et de débogage.

La tarification de l’utilisation de Data Factory est calculée en fonction des facteurs suivants :

  • La fréquence des activités (élevée ou faible). Une activité à fréquence faible ne s’exécute pas plus d’une fois par jour (par exemple, tous les jours, toutes les semaines, tous les mois) ; une activité à fréquence élevée s’exécute plus d’une fois par jour (par exemple, toutes les heures, toutes les 15 minutes). Pour plus d’informations, consultez la section Orchestration des activités ci-dessous.
  • L’emplacement d’exécution des activités (dans le cloud ou localement). Consultez la section Déplacement des données ci-dessous.
  • Si un pipeline est actif ou non. Consultez la section Pipelines inactifs ci-dessous.
  • Si vous réexécutez une activité. Consultez la section Réexécution d’activités ci-dessous.

Orchestration des activités

Fréquence faible Fréquence élevée
Activités exécutées dans le cloud

(Exemples : activité de copie qui déplace les données d’un blob Azure vers Azure SQL Database ; activité Hive qui exécute un script Hive sur un cluster Azure HDInsight).
$- par activité par mois $- par activité par mois
Activités exécutées localement et impliquant un IR (Integration Runtime) auto-hébergé

(Exemples : activité de copie qui déplace des données d’une base de données SQL Server locale vers un blob Azure ; activité de procédure stockée qui exécute une procédure stockée dans une base de données SQL Server locale).
$- par activité par mois $- par activité par mois

Remarques :

  • l’utilisation au-delà de 100 activités/mois bénéficiera d’une remise 20 % pour les scénarios de basse fréquence et de haute fréquence.
  • Les premières 5 activités basse fréquence d’un mois sont gratuites dans les variantes cloud et locales.

Déplacement des données

Azure Data Factory peut copier les données entre différents magasins de données de façon sécurisée, fiable, performante et scalable. Azure Data Factory peut se mettre à l’échelle pour répondre à vos besoins à mesure que le volume de vos données ou le débit du déplacement des données augmente. Consultez le Guide sur les performances de l’activité de copie pour savoir comment tirer parti des unités de déplacement des données pour optimiser les performances en matière de déplacement des données.

Déplacement des données entre les magasins de données du cloud $- par heure
Déplacement des données dans le cas d’un magasin local $- par heure
Remarque :
Des frais de transfert de données peuvent s’appliquer. Ils sont alors mentionnés sur une ligne distincte de votre facture concernant le transfert de données sortant. Les frais liés au transfert de données sortant s’appliquent lorsque les données sortent des centres de données Azure. Pour plus d’informations, consultez la page Informations de tarification sur les transferts de données.

Pipelines inactifs

Vous devez spécifier une période active de traitement des données à l’aide d’une plage de dates/heures (heures de début et de fin) pour chaque pipeline déployé dans Azure Data Factory. Le pipeline est considéré comme actif pendant la période spécifiée, même si les activités correspondantes ne sont pas réellement exécutées. Il est inactif le reste du temps.

Un pipeline inactif est facturé à hauteur de $- par mois.

Les pipelines qui restent inactifs pendant un mois entier sont facturés au tarif applicable aux pipelines inactifs pour le mois en question. Les pipelines qui restent inactifs pendant une partie du mois sont facturés pour les périodes inactives au prorata du nombre d’heures pendant lequel ils ont été inactifs pendant le mois en question. Par exemple, si un pipeline a comme date/heure de début le 01/01/2016 à minuit et comme date/heure de fin le 20/01/2016 à minuit, le pipeline est considéré comme actif pendant les 20 jours en question et inactif pendant 11 jours. Les frais liés à un pipeline inactif ($-) sont calculés au prorata des 11 jours.

Si aucune période active de traitement des données (heures de début et de fin) n’a été spécifiée pour un pipeline, ce dernier est considéré comme inactif.

Réexécution d’activités

Vous pouvez réexécuter les activités si besoin (par exemple si la source de données n’était pas disponible pendant l’exécution planifiée). Le coût engendré par la réexécution d'activités varie en fonction de l'emplacement dans lequel l'activité a été exécutée. Le coût de la réexécution d’activités dans le cloud est de $- toutes les 1 000 réexécutions. Le coût de la réexécution d’activités localement est de $- toutes les 1 000 réexécutions.

Lire

Prenons l’exemple suivant : vous avez un pipeline de données avec les deux activités suivantes qui s’exécutent une fois par jour (faible fréquence) :

  1. Une activité de copie qui copie les données d’une base de données SQL Server locale vers un blob Azure.
  2. Une activité Hive qui exécute un script Hive sur un cluster Azure HDInsight.

Supposons qu’il faille 2 heures par jour pour déplacer les données de la base de données SQL Server locale vers Stockage Blob Azure. Le tableau suivant montre les coûts associés à ce pipeline :

Première activité (copie des données de l’emplacement local vers Azure)
Coût du déplacement des données (par mois) 30 jours par mois
2 heures par jour
$-
$-
Coût de l’orchestration des activités (par mois) $-
Sous-total (par mois) $-
Deuxième activité (un script Hive exécuté sur Azure HDInsight)
Coût du déplacement des données (par mois) $-
Coût de l’orchestration des activités (par mois) $-
Sous-total (par mois) $-
Total des activités (par mois) $-

Vous pouvez également utiliser la calculatrice de prix Data Factory pour calculer les frais pour ce scénario.

Remarques :

  • Les cinq premières activités cloud et locales ne sont pas facturées. Les frais mentionnés ci-dessus supposent que vous avez déjà utilisé cinq activités cloud et cinq activités locales par mois (dans d’autres pipelines).
  • services Stockage Azure et HDInsight sont facturés séparément aux tarifs par service.

Tarification et options d’achat Azure

Connectez-vous directement avec nous

Obtenez un guide pas à pas de la tarification Azure. Comprenez la tarification de votre solution cloud, découvrez l’optimisation des coûts et demandez une offre personnalisée.

Discuter avec un spécialiste des ventes

Découvrez les modalités d'achat

Achetez des services Azure via le site web Azure, un représentant Azure ou un partenaire Azure.

Explorez vos options

Ressources supplémentaires

Data Factory

En savoir plus sur les fonctionnalités et capacités Data Factory.

Calculatrice de prix

Estimez vos coûts mensuels pour l’utilisation des différentes combinaisons de produits Azure.

SLA

Consultez le Contrat de niveau de service (SLA) pour Data Factory.

Documentation

Consulter les didacticiels et vidéos techniques, et d’autres ressources Data Factory.

Azure Data Factory V2

  • Les opérations de lecture/écriture incluent la création, la lecture, la mise à jour et la suppression d’entités Azure Data Factory. Les entités incluent les jeux de données, les services liés, les pipelines, le runtime d’intégration et les déclencheurs.
  • Les opérations de monitoring incluent l’obtention et le listage des exécutions de pipelines, d’activités, de déclencheurs et de débogage.
  • Une activité est une étape au sein d’un pipeline. L’exécution de chaque activité est appelée « exécution ».
  • Un runtime d’intégration est l’infrastructure de calcul utilisée par Azure Data Factory pour fournir les fonctionnalités d’intégration de données suivantes entre différents environnements réseau :

    • Déplacement des données : transfert de données entre des magasins de données dans des réseaux publics et privés (locaux ou privés virtuels), prenant en charge les connecteurs intégrés, la conversion de format, le mappage de colonnes et le transfert de données performant et scalable.
    • Répartition des activités : répartition et analyse des activités de transformation exécutées sur un large éventail de services Compute, tels qu’Azure HDInsight, Azure Machine Learning, Azure SQL Database, SQL Server, etc.
    • Exécution du package SQL Server Integration Services : exécution native des packages SSIS SQL Server Integration Services dans un environnement Compute Azure managé.
  • Un déclencheur est une unité de traitement qui détermine le moment où une exécution de pipeline doit être initiée. Une exécution de déclencheur est l’exécution d’un déclencheur, qui peut produire une exécution d’activité si les conditions sont remplies.
  • Une exécution de débogage est une série de tests qu’un utilisateur peut effectuer au cours du développement itératif pour s’assurer que les étapes du pipeline fonctionnent comme prévu avant que les modifications ne soient publiées dans la fabrique de données.
  • Un pipeline inactif est un pipeline qui n’est pas associé à un déclencheur et qui ne comporte aucune exécution au cours du mois. Des frais sont facturés après un mois sans exécution.
  • Les activités d’exécution de pipeline (déplacement des données de runtime d’intégration Azure, activités de pipeline, déplacement des données de runtime d’intégration auto-hébergé et externe, activités de pipeline et externe) sont facturées au taux horaire indiqué ci-dessus. L’exécution du pipeline est facturée à la minute supérieure.

    Par exemple : Si vous exécutez une opération qui dure 2 minutes et 20 secondes, 3 minutes sont facturées.

  • Trouvez des exemples de tarification par scénario sur la page de documentation d’Azure Data Factory.
  • Consultez la page sur la Supériorité d’Azure Data Factory pour obtenir des conseils de planification et de gestion des coûts d’ADF.

Azure Data Factory V1

  • Les activités définissent les actions à effectuer sur vos données. Chaque activité prend un nombre quelconque de jeux de données en tant qu’entrées et produit un ou plusieurs jeux de données en sortie. Une activité est une unité d’orchestration dans Azure Data Factory.

    Par exemple, vous pouvez utiliser une activité de copie pour orchestrer la copie de données d’un jeu de données à un autre. De même, vous pouvez utiliser une activité Hive pour exécuter une requête Hive sur un cluster Azure HDInsight afin de transformer ou d’analyser vos données. Azure Data Factory fournit un large éventail d’activités de transformation et de déplacement des données. Vous pouvez également créer une activité .NET personnalisée pour exécuter votre propre code.

  • Un pipeline est un regroupement logique d’activités. Les pipelines peuvent être actifs pendant une période spécifiée par l’utilisateur (avec des heures de début et de fin). Les pipelines sont inactifs le reste du temps.
  • Oui. Si l’activité utilise des services Azure tels que HDInsight, ces services font l’objet d’une facturation séparée selon les tarifs individuels associés.

  • Deux types de coût sont facturés lors d'une copie de données. Tout d'abord, les ressources de calcul utilisées pour l'exécution de la copie sont représentées par le compteur des déplacements de données. Il existe une version locale et une version dans le cloud du compteur des déplacements de données. Le déplacement des données en local est moins onéreux, car une portion du calcul associé à la copie est effectuée par vos propres ressources locales. Le déplacement des données est facturé à la minute supérieure (par exemple, une copie de données d’une durée de 41 minutes et 23 secondes est facturée à hauteur de 42 minutes).

    En outre, des frais de transfert de données peuvent s’appliquer. Ils sont alors mentionnés sur une ligne distincte de votre facture concernant le transfert de données sortantes. Les frais liés au transfert de données sortant s’appliquent lorsque les données sortent des centres de données Azure. Pour plus d’informations, consultez la page Informations de tarification sur les transferts de données.

Discutez avec un spécialiste des ventes pour qu’il vous explique en détail la tarification Azure. Comprendre la tarification de votre solution cloud.

Profitez de services cloud gratuits et d’un crédit de $200 pour découvrir Azure pendant 30 jours.

Ajout à des fins d’estimation. Appuyez sur « v » pour afficher sur la calculatrice