Zum Hauptinhalt wechseln

Datenpipelines – Preise

Hybriddatenintegration auf Unternehmensebene leicht gemacht

Lernen Sie die Vielzahl an Datenintegrationsfunktionen kennen, um Ihre Anforderungen in Bezug auf Skalierung, Infrastruktur, Kompatibilität, Leistung und Budget zu erfüllen – von verwalteten SQL Server Integration Services für die nahtlose Migration von SQL Server-Projekten in die Cloud bis hin zu umfangreichen, serverlosen Datenpipelines für die Integration von Daten jeglicher Art und Größe.

Preisoptionen entdecken

Sie können die Preisoptionen mit Filtern anpassen.

Preise sind nur Schätzungen und nicht als tatsächliche Preisangebote vorgesehen. Die tatsächlichen Preise können je nach Art des mit Microsoft eingegangenen Vertrags, dem Kaufdatum und dem Wechselkurs variieren. Die Preise werden auf der Grundlage des US-Dollars berechnet und anhand der Londoner Schlusskassakurse umgerechnet, die an den beiden Geschäftstagen vor dem letzten Geschäftstag des vorangegangenen Monatsendes erfasst werden. Wenn die beiden Geschäftstage vor dem Monatsende auf einen Bankfeiertag in wichtigen Märkten fallen, ist der Tag der Kursfeststellung in der Regel der Tag, der den beiden Geschäftstagen unmittelbar vorausgeht. Dieser Kurs gilt für alle Transaktionen im kommenden Monat. Melden Sie sich beim Azure-Preisrechner an, um die Preise basierend auf Ihrem aktuellen Programm/Angebot mit Microsoft anzuzeigen. Wenden Sie sich an einen Azure-Vertriebsspezialisten, um weitere Informationen zu den Preisen zu erhalten oder ein Preisangebot anzufordern. Siehe häufig gestellte Fragen zu Azure-Preisen.

Die Preise für Datenpipelines wurden basierend auf folgenden Faktoren berechnet:

  • Pipelineorchestrierung und -ausführung
  • Datenflussausführung und -debugging
  • Anzahl der Data Factory-Vorgänge, z.B. Erstellung und Überwachung von Pipelines

Data Factory-Pipelineorchestrierung und -ausführung

Pipelines sind Ablaufsteuerungen von separaten Schritten, die als Aktivitäten bezeichnet werden. Es fallen Kosten für die Orchestrierung von Datenpipelines (nach Aktivitätsausführung) und die Ausführung von Aktivitäten (nach Integration Runtime-Stunden) an. Die Integration Runtime, die in Azure serverlos ist und in Hybridszenarien selbst gehostet wird, stellt die Computeressourcen zur Ausführung der Aktivitäten in einer Pipeline bereit. Die Kosten für Integration Runtime werden anteilig pro Minute berechnet und aufgerundet.

Die Azure Data Factory-Kopieraktivität kann z.B. Daten zwischen verschiedenen Datenspeichern sicher, zuverlässig, leistungsfähig und skalierbar verschieben. Wenn das Datenvolumen oder der Datendurchsatz erhöht werden muss, kann die Integration Runtime dementsprechend aufskaliert werden.

Typ Preise für Azure Integration Runtime Preise für eine Azure-verwaltete VNET-Integration Runtime Preise für eine selbstgehostete Integration Runtime
Orchestrierung1 $- pro 1.000 Ausführungen $- pro 1.000 Ausführungen $- pro 1.000 Ausführungen
Datenverschiebungsaktivitäten2 $-/DIU-Stunde $-/DIU-Stunde $-/Stunde
Pipelineaktivität3 $-/Stunde

$-/Stunde

(Bis zu 50 gleichzeitige Pipelineaktivitäten)

$-/Stunde

Externe Pipelineaktivität4 $-/Stunde $-/Stunde

(Bis zu 800 gleichzeitige Pipelineaktivitäten)

$-/Stunde
1Mit „Orchestrierung“ sind Aktivitäts-, Trigger- und Debugausführungen gemeint.
2Die Nutzung der Kopieraktivität für ausgehende Daten aus einem Azure-Rechenzentrum verursacht zusätzliche Kosten für die Netzwerkbandbreite, die als separate Position für ausgehende Datenübertragungen auf Ihrer Rechnung aufgeführt werden. Erfahren Sie mehr über die Preise für ausgehende Datenübertragungen.
3Pipelineaktivitäten werden in der Integration Runtime ausgeführt. Pipelineaktivitäten umfassen Suchvorgänge, das Abrufen von Metadaten, das Löschen und Schemavorgänge während der Erstellung (Testverbindung, Ordner- und Tabellenliste durchsuchen, Schema abrufen und Vorschau für Daten anzeigen).
4Externe Pipelineaktivitäten werden in der Integration Runtime verwaltet, allerdings in verknüpften Diensten ausgeführt. Zu externen Aktivitäten zählen Aktivitäten für Databricks, gespeicherte Prozeduren, HDInsight und vieles mehr. Auf dieser Seite finden Sie eine vollständige Liste der externen Aktivitäten. Informationen zur Aktivität in Mapping Data Flow finden Sie im Abschnitt „Data Factory Datenflussausführung und -debugging“ weiter unten.

Datenflussausführung und -debugging

Datenflüsse sind visuell gestaltete Komponenten innerhalb von Data Factory, die Datentransformationen im großen Stil ermöglichen. Sie zahlen für die Ausführung und die Debuggen-Zeit des Datenflussclusters pro V-Kern-Stunde. Die Mindestgröße des Clusters zum Ausführen eines Datenflusses beträgt 8 virtuelle Kerne. Gebühren für Ausführung und Debuggen werden anteilsmäßig pro Minute berechnet und aufgerundet. Change Data Capture (CDC)-Artefakte werden während der öffentlichen Vorschau von CDC zu Universell-Tarifen für Cluster mit vier virtuellen Kernen abgerechnet.

Change Data Capture (CDC)-Objekte werden in derselben Datenfluss-Computeinfrastruktur auf einem Computer mit vier virtuellen Kernen und einem einzelnen Knoten ausgeführt. Der gleiche Preisnachlass für reservierte Datenflussinstanzen gilt auch für CDC-Ressourcen.

Typ Preis Reservierung für ein Jahr
(Einsparungen in %)
Reservierung für drei Jahre
(Einsparungen in %)
Allgemein $- pro vKern-Stunde $- pro vKern-Stunde $- pro vKern-Stunde
Speicheroptimiert $- pro vKern-Stunde $- pro vKern-Stunde $- pro vKern-Stunde

Hinweis: Für die Datenflüsse in Data Factory fallen auch Gebühren für die verwalteten Datenträger und den Blobspeicher an, die für das Ausführen und Debuggen der Datenflüsse benötigt werden.

Azure Data Factory Workfloworchestrierungs-Manager

Größe Workflowkapazität Scheduler-vCPU Worker-vCPU Webserver-vCPU Preis pro Stunde
Klein (D2v4) Bis zu 50 DAGs 2 2 2 $-
Groß (D4v4) Bis zu 1.000 DAGs 4 4 4 $-

Zusätzlicher Knoten Worker-vCPU Preis pro Stunde
Klein (D2v4) 2 $-
Groß (D4v4) 4 $-

Data Factory-Vorgänge

Typ Preis Beispiele
Lese-/Schreibvorgänge* $- pro 50.000 geänderten/referenzierten Entitäten Lesen/Schreiben von Entitäten in Azure Data Factory*
Überwachung $- pro 50.000 abgerufenen Ausführungsaufzeichnungen Überwachung von Pipeline-, Aktivitäts-, Trigger- und Debugausführungen**
* Zu Lese-/Schreibvorgängen für Azure Data Factory-Entitäten zählen Vorgänge zum Erstellen, Lesen, Aktualisieren und Löschen. Zu Entitäten zählen Datasets, verknüpfte Dienste, Pipelines, die Integration Runtime und Trigger.
** Zu Überwachungsvorgängen zählen das Abrufen und Auflisten von Pipeline-, Aktivitäts-, Trigger- und Debugausführungen.

Die Abrechnung für die Nutzung der Data Factory wird anhand der folgenden Faktoren berechnet:

  • Häufigkeit der Aktivitäten (häufig oder weniger häufig). Eine Aktivität mit niedriger Frequenz wird pro Tag maximal einmal ausgeführt (zum Beispiel einmal täglich, wöchentlich, monatlich), eine Aktivität mit hoher Frequenz wird mehrmals täglich ausgeführt (zum Beispiel stündlich oder alle 15 Minuten). Weitere Informationen finden Sie weiter unten im Abschnitt Orchestrierung von Aktivitäten.
  • Ausführungsort der Aktivitäten (in der Cloud oder lokal). Weitere Informationen dazu finden Sie weiter unten im Abschnitt Datenverschiebung.
  • Aktivität/Inaktivität der Pipeline. Weitere Informationen dazu finden Sie weiter unten im Abschnitt Inaktive Pipelines.
  • Erneute Ausführung einer Aktivität. Weitere Informationen dazu finden Sie weiter unten im Abschnitt Erneute Ausführung von Aktivitäten.

Orchestrierung von Aktivitäten

Weniger häufig Sehr häufig
In der Cloud ausgeführte Aktivitäten

(Beispiele: Kopieraktivität, mit der Daten aus einem Azure-Blob in eine Azure SQL-Datenbank verschoben werden; Hive-Aktivität, mit der ein Hive-Skript in einem Azure HDInsight-Cluster ausgeführt wird)
$- pro Aktivität pro Monat $- pro Aktivität pro Monat
Aktivitäten, die lokal ausgeführt werden und eine selbstgehostete Integrationslaufzeit (Integration Runtime, IR) umfassen

(Beispiele: Kopieraktivität, mit der Daten aus einer lokalen SQL Server-Datenbank in ein Azure-Blob verschoben werden; Aktivität für gespeicherte Prozeduren, mit der eine gespeicherte Prozedur in einer lokalen SQL Server-Datenbank ausgeführt wird)
$- pro Aktivität pro Monat $- pro Aktivität pro Monat

Hinweise:

  • Nutzung von mehr als 100 Aktivitäten/Monat erhält einen 20 % Rabatt sowohl für Szenarien mit niedriger Frequenz als auch für Hochfrequenzszenarien.
  • Erste 5 Aktivitäten mit niedriger Frequenz pro Monat sind sowohl in cloudbasierten als auch in lokalen Varianten kostenlos.

Datenverschiebung

Azure Data Factory kann Daten zwischen verschiedenen Datenspeichern sicher, zuverlässig, leistungsfähig und skalierbar kopieren. Wenn Ihr Datenvolumen oder Ihre Anforderungen an den Datenverschiebungsdurchsatz wachsen, kann Azure Data Factory entsprechend aufskalieren. Informationen zur Nutzung von Einheiten für die Datenverschiebung zur Steigerung der Leistung bei Datenverschiebungen finden Sie im Leistungsleitfaden zur Kopieraktivität.

Datenverschiebung zwischen cloudbasierten Datenspeichern $- pro Stunde
Datenverschiebung, wenn lokaler Speicher involviert ist $- pro Stunde
Hinweis:
Es können Datenübertragungskosten anfallen, die auf Ihrer Rechnung separat als ausgehende Datenübertragungen aufgeführt werden. Gebühren für ausgehende Datenübertragungen fallen an, wenn Daten aus Azure-Rechenzentren übertragen werden. Weitere Informationen finden Sie unter Datenübertragungen – Preisdetails.

Inaktive Pipelines

Für jede in Azure Data Factory bereitgestellte Pipeline muss unter Angabe eines Datums- und Uhrzeitbereichs (Start- und Endzeiten) ein Zeitraum für die aktive Datenverarbeitung festgelegt werden. Während dieses Zeitraums wird die Pipeline selbst dann als aktiv betrachtet, wenn keine Aktivitäten ausgeführt werden. Während der übrigen Zeit wird die Pipeline als inaktiv betrachtet.

Eine inaktive Pipeline wird mit $- pro Monat abgerechnet.

Für Pipelines, die während eines gesamten Monats inaktiv waren, werden die jeweils geltenden Gebühren für inaktive Pipelines für diesen Monat berechnet. Für Pipelines, die während eines Monats teilweise inaktiv waren, fallen basierend auf der Anzahl von Stunden, in denen die Pipelines inaktiv waren, anteilig die Gebühren für inaktive Zeiträume an. Beispiel: Eine Pipeline hat den Starttermin 01.01.2016 um 12 Uhr und das Enddatum 20.01.2016 um 12 Uhr. Somit wird angenommen, dass die Pipeline 20 Tage lang aktiv und 11 Tage lang inaktiv war. Die Kosten für die inaktive Pipeline ($-) werden anteilig für 11 Tage berechnet.

Wenn für eine Pipeline kein Zeitraum für die aktive Datenverarbeitung festgelegt wurde (Start- und Endzeit), wird die Pipeline als inaktiv betrachtet.

Erneut ausgeführte Aktivitäten

Aktivitäten können bei Bedarf erneut ausgeführt werden (zum Beispiel wenn die Datenquelle während der geplanten Ausführung nicht verfügbar war). Die Kosten für die erneute Ausführung von Aktivitäten basieren auf dem Standort, an dem die Aktivität ausgeführt wird. Die Kosten für die erneute Ausführung von Cloudaktivitäten betragen $- pro 1.000 erneute Ausführungen. Die Kosten für die erneute Ausführung von lokalen Aktivitäten betragen $- pro 1.000 erneute Ausführungen.

Beispiel

Angenommen, Sie haben eine Datenpipeline mit den beiden folgenden Aktivitäten, die einmal täglich ausgeführt werden (niedrige Frequenz):

  1. Eine Kopieraktivität, mit der Daten von einer lokalen SQL Server-Datenbank in einen Azure-Blob kopiert werden.
  2. Eine Hive-Aktivität, mit der ein Hive-Skript in einem Azure HDInsight-Cluster ausgeführt wird.

Angenommen, es dauert 2 Stunden, um Daten von einer lokalen SQL Server-Datenbank in einen Azure-Blobspeicher zu verschieben. In der folgenden Tabelle sind die mit dieser Pipeline verbundenen Kosten aufgeführt:

Erste Aktivität (Kopieren von Daten von lokalem Speicher nach Azure)
Kosten für Datenverschiebungen (pro Monat) 30 Tage pro Monat
2 Stunden pro Tag
$-
$-
Kosten für die Orchestrierung von Aktivitäten (pro Monat) $-
Zwischensumme (pro Monat) $-
Zweite Aktivität (Ausführen eines Hive-Skripts in Azure HDInsight)
Kosten für Datenverschiebungen (pro Monat) $-
Kosten für die Orchestrierung von Aktivitäten (pro Monat) $-
Zwischensumme (pro Monat) $-
Aktivitäten gesamt (pro Monat) $-

Sie können auch den Data Factory Preisrechner verwenden, um Gebühren für dieses Szenario zu berechnen.

Hinweise:

  • Für die ersten fünf Cloud- und lokalen Aktivitäten fallen keine Gebühren an. Bei den oben genannten Gebühren wird vorausgesetzt, dass Sie bereits fünf Cloud- und fünf lokale Aktivitäten pro Monat (in anderen Pipelines) genutzt haben.
  • Azure Storage- und HDInsight-Dienste werden separat zum pro Servicetarif.
abgerechnet.

Azure-Preise und -Kaufoptionen

Direkten Kontakt aufnehmen

Erhalten Sie eine Übersicht über die Azure-Preise. Informieren Sie sich über die Preise für Ihre Cloudlösung und die Möglichkeiten zur Kostenoptimierung, und fordern Sie ein individuelles Angebot an.

Sprechen Sie mit einem Vertriebsspezialisten

Kaufoptionen

Erwerben Sie Azure-Dienste über die Azure-Website, einen Microsoft-Vertreter oder einen Azure-Partner.

Optionen kennenlernen

Zusätzliche Ressourcen

Azure Data Factory

Hier erhalten Sie weitere Informationen zu den Features und Funktionen von Azure Data Factory.

Preisrechner

Kalkulieren Sie Ihre erwarteten monatlichen Kosten für eine beliebige Kombination von Azure-Produkten.

SLA

Lesen Sie die Vereinbarung zum Servicelevel für Azure Data Factory.

Dokumentation

Hier finden Sie technische Tutorials, Videos und weitere Ressourcen zu Azure Data Factory.

Azure Data Factory V2

  • Zu Lese-/Schreibvorgängen zählen das Erstellen, Lesen, Aktualisieren und Löschen von Azure Data Factory-Entitäten. Zu Entitäten zählen Datasets, verknüpfte Dienste, Pipelines, die Integration Runtime und Trigger.
  • Zu Überwachungsvorgängen zählen das Abrufen und Auflisten von Pipeline-, Aktivitäts-, Trigger- und Debugausführungen.
  • Eine Aktivität ist ein Schritt innerhalb einer Pipeline. Die Durchführung jeder Aktivität wird als Ausführung bezeichnet.
  • Bei einer Integration Runtime handelt es sich um die Computeinfrastruktur, mit der Azure Data Factory die folgenden Datenintegrationsfunktionen für verschiedene Netzwerkumgebungen bereitstellt:

    • Datenverschiebung: Übertragung von Daten zwischen Datenspeichern in öffentlichen und privaten (lokalen oder virtuellen privaten) Netzwerken mit Unterstützung für integrierte Connectors, Formatkonvertierungen, Spaltenzuordnungen und leistungsstarke sowie skalierbare Datenübertragungen.
    • Aktivitätsverteilung: Verteilung und Überwachung von Transformationsaktivitäten, die in vielen verschiedenen Computediensten wie Azure HDInsight, Azure Machine Learning, Azure SQL-Datenbank, SQL Server und anderen ausgeführt werden.
    • SQL Server Integration Services – Paketausführung: Dient zum nativen Ausführen von SSIS-Paketen (SQL Server Integration Services) in einer verwalteten Azure-Compute-Umgebung.
  • Bei einem Trigger handelt es sich um eine Verarbeitungseinheit, die bestimmt, wann eine Pipelineausführung initiiert werden soll. Eine Triggerausführung ist die Ausführung eines Triggers, der eine Aktivitätsausführung erzeugen kann, wenn die Bedingungen erfüllt sind.
  • Eine Debugausführung ist eine Testausführung, die ein Benutzer bei der iterativen Entwicklung durchführen kann, um vor der Veröffentlichung von Änderungen in der Data Factory sicherzustellen, dass die Schritte in der Pipeline wie geplant funktionieren.
  • Eine inaktive Pipeline ist eine Pipeline, die keinem Trigger zugeordnet ist und innerhalb eines Monats keine Ausführungen aufweist. Eine Gebühr fällt nach einem Monat ohne Ausführung an.
  • Aktivitäten zur Pipelineausführung (Azure Integration Runtime-Datenverschiebung, Pipelineaktivitäten, Datenverschiebungen für externe und selbstgehostete Integration Runtimes) werden zu dem oben angegebenen Stundensatz abgerechnet. Die Kosten für Pipelineausführungen werden anteilig pro Minute berechnet und aufgerundet.

    Beispiel: Wenn Sie einen Vorgang ausführen, der 2 Minuten und 20 Sekunden dauert, werden Ihnen 3 Minuten berechnet.

  • Szenariobasierte Preisbeispiele finden Sie auf der Seite Azure Data Factory-Dokumentation.
  • Weitere Informationen finden Sie auf der Seite Planen und Verwalten von Kosten für Azure Data Factory.

Azure Data Factory V1

  • Aktivitäten definieren die Aktionen, die für Ihre Daten durchgeführt werden. Jede Aktivität benötigt null, ein oder mehrere Datasets als Eingabe und produziert ein oder mehrere Datasets als Ausgabe. Eine Aktivität ist eine Orchestrierungseinheit in Azure Data Factory.

    Sie können beispielsweise die Kopieraktivität verwenden, um das Kopieren von Daten von einem Dataset in ein anderes zu orchestrieren. In ähnlicher Weise können Sie eine Hive-Aktivität zum Ausführen einer Hive-Abfrage in einem Azure HDInsight-Cluster verwenden, um Ihre Daten zu transformieren oder zu analysieren. Azure Data Factory bietet umfangreiche Aktivitäten zur Datentransformation und Datenverschiebung. Sie können auch eine benutzerdefinierte .NET-Aktivität erstellen, um Ihren eigenen Code auszuführen.

  • Eine Pipeline ist eine logische Gruppierung von Aktivitäten. Pipelines können für einen vom Benutzer festgelegten Zeitraum aktiv sein (Start- und Endzeiten). Zu jeder anderen Zeit sind Pipelines inaktiv.
  • Ja. Wenn die Aktivität Azure-Dienste wie HDInsight verwendet, werden diese Dienste separat nach ihrem Diensttarif abgerechnet.

  • Beim Erstellen von Datenkopien fallen zwei Gebühren an. Zunächst fallen Kosten für die Computeressourcen an, die für das Kopieren genutzt werden. Diese werden über den Zähler für Datenverschiebungen ermittelt. Der Zähler für Datenverschiebungen ist sowohl als cloudbasierte als auch als lokale Version verfügbar. Lokale Datenverschiebungen sind kostengünstiger, da es sich bei einem Teil der für den Kopiervorgang genutzten Computeressourcen um lokale Ressourcen am Kundenstandort handelt. Die Kosten für Datenverschiebungen werden anteilig pro Minute berechnet und aufgerundet. (Beispiel: Für einen Kopiervorgang, der 41 Minuten und 23 Sekunden dauert, werden 42 Minuten in Rechnung gestellt).

    Darüber hinaus können Datenübertragungskosten anfallen, die auf Ihrer Rechnung separat als ausgehende Datenübertragungen aufgeführt werden. Gebühren für ausgehende Datenübertragungen fallen an, wenn Daten aus Azure-Rechenzentren übertragen werden. Weitere Informationen finden Sie unter Datenübertragungen – Preisdetails.

Sprechen Sie für eine detaillierte Erläuterung der Azure-Preise mit einem Vertriebsspezialisten. Lernen Sie, die Berechnung der Preise für Ihre Cloudlösung zu verstehen.

Sichern Sie sich kostenlose Cloud-Dienste und ein Guthaben in Höhe von $200, mit dem Sie Azure 30 Tage lang erkunden können.

Zur Schätzung hinzufügen Für die Anzeige im Rechner „v“ drücken
Können wir Ihnen helfen?