Priser för Datapipeline

Prisinformation

Azure Data Factory: Priser för Datapipeline

Priserna för Data Pipeline beräknas på:

  • Dirigering och körning av pipeline
  • Körning och felsökning av dataflöde
  • Antal Data Factory-åtgärder, till exempel att skapa eller övervaka pipeline eller

Orkestrering och körning av Data Factory Pipeline

Pipelines är kontrollflöden med separata steg som kallas aktiviteter. Du betalar för orkestrering av en datapipeline per aktivitetskörning, och för aktivitetskörningar per timme integreringskörning. Integreringskörningen är serverlös i Azure och lokal i hybridscenarier och tillhandahåller de beräkningsresurser som används för att köra aktiviteterna i en pipeline. Avgifter för integreringskörningar beräknas utifrån antalet minuter och avrundas uppåt.

Kopieringsaktiviteten i Azure Data Factory kan till exempel flytta data mellan olika datalager på ett säkert, tillförlitligt, effektivt och skalbart sätt. Om datavolymen eller dataflödet behöver växa kan integrationskörningen skala ut efter behov.

Typ Pris Beskrivning
Orkestrering

$- per 1 000 körningar

Aktivitet, utlösare och felsökningskörningar

Lokalt installerad integrationskörning

$- per 1 000 körningar

Körning

Azure Integration Runtime

Aktiviteter för dataförflyttning: $-/DIU-timme*

Pipeline-aktiviteter: $-/timme**

Externa: $-/timme

Kostnad för att köra en Azure Data Factory-aktivitet vid Azure-integrationskörning

Lokalt installerad integrationskörning

Aktiviteter för dataförflyttning: $-/timme*

Pipeline-aktiviteter: $-/timme**

Externa: $-/timme

Kostnad för att köra en Azure Data Factory-aktivitet vid en lokalt installerad integrationskörning

* När kopieringsaktiviteten används för att föra ut data från ett Azure-datacenter debiteras den ytterligare nätverksbandbredd som används. Denna kostnad visas som en separat post för utgående dataöverföring på din faktura. Mer information om priser för utgående dataöverföring.

** Pipeline activities execute on integration runtime. Pipeline activities include Lookup, Get Metadata, Delete, and schema operations during authoring (test connection, browse folder list and table list, get schema, and preview data).

*** External pipeline activities are managed on integration runtime but execute on linked services. External activities include Databricks, stored procedure, HDInsight activities, and many more. Please refer here for a complete list of external activities. For Mapping Data Flow activity please refer to the “Data Factory Data Flow Execution and Debugging” section below.

Data Flow Execution and Debugging

Data Flows are visually-designed components inside of Data Factory that enable data transformations at scale. You pay for the Data Flow cluster execution and debugging time per vCore-hour. The minimum cluster size to run a Data Flow is 8 vCores. Execution and debugging charges are prorated by the minute and rounded up. Preview pricing discounts will continue until November 30, 2019. Starting December 1, 2019, the pricing shown below will go into effect.

Typ Pris Beskrivning
Beräkningsoptimerad $- per vCore-timme Dataflöde byggt på beräkningsoptimerad beräkning
Generellt syfte $- per vCore-timme Dataflöde byggt på beräkning för allmänt syfte
Minnesoptimerad $- per vCore-timme Dataflöde byggt på minnesoptimerad beräkning

Note: Data Factory Data Flows will also bill for the managed, disk, and blob storage required for Data Flow execution and debugging.

Data Factory-åtgärder

Typ Pris Exempel
Läsa/Skriva* $- per 50 000 modifierade/refererade entiteter Läsning/skrivning på entiteter i Azure Data Factory*
Övervakning $- per 50 000 körningsposter har hämtats Övervakning av pipeline, aktivitet, utlösare och felsökning**

* Läs-/skrivåtgärder för Azure Data Factory-entiteter omfattar att skapa, läsa, uppdatera och ta bort. Entiteter omfattar datamängd, länkade tjänster, pipelines, integrationskörning och utlösare.

** Övervakningsåtgärderna omfattar att hämta och lista för pipeline, aktivitet, utlösare och felsökningar.

Inaktiva pipeliner

En pipeline räknas som inaktiv om den inte har någon tillhörande utlösare eller inte har några körningar på en månad. En inaktiv pipeline debiteras enligt $- per månad.

Vanliga frågor och svar

  • Läs-/skrivåtgärderna omfattar att skapa, läsa, uppdatera och ta bort Azure Data Factory-entiteter. Entiteter omfattar datamängd, länkade tjänster, pipelines, integrationskörning och utlösare.
  • Övervakningsåtgärderna omfattar att hämta och lista för pipeline, aktivitet, utlösare och felsökningar.
  • En aktivitet är ett steg inom en pipeline. Utförandet av varje aktivitet kallas körning.
  • En integrationskörning är beräkningsinfrastrukturen som används av Azure Data Factory för att ge olika nätverksmiljöer integrationsfunktioner:

    • Dataflytt: Överföring av data mellan datalager i offentliga och privata nätverk (lokala eller virtuellt privata), för att ge stöd för inbyggda anslutningsprogram, formatkonvertering, kolumnmappning samt en effektiv och skalbar dataöverföring.
    • Aktivitetssändning: Skicka och övervaka transformeringsaktiviteter som körs på en mängd olika beräkningstjänster, till exempel Azure HDInsight, Azure Machine Learning, Azure SQL Database, SQL Server med flera.
    • SQL Server Integration Services-paketkörning: Intern körning av SQL Server Integration Services-paket i en hanterad Azure-beräkningsmiljö.
  • En utlösare är en bearbetningsenhet som avgör när en pipeline-körning måste startas. En utlösarkörning är körningen av en utlösare, vilket kan starta en aktivitetskörning om villkoren uppfylls.
  • En felsökning är en testkörning som en användare kan utföra under iterativ utveckling för att kontrollera att stegen i pipeline fungerar som avsett innan ändringar publiceras till datafabriken.
  • En inaktiv pipeline är en pipeline som inte är kopplad till en utlösare, och som har noll körningar inom en månad. En avgift tas ut efter en månad med noll körningar.
  • Pipeline-körningsaktiviteter (Azure Integration Runtime-dataflytt, pipeline-aktiviteter, dataflytt med extern och lokalt installerad integrationskörning, pipeline-aktiviteter och extern) faktureras till timkostnaden som visas ovan. Pipeline-körningsavgifter beräknas utifrån antal minuter och avrundas uppåt.

    Exempel: Om du kör en åtgärd som tar 2 minuter och 20 sekunder faktureras du för 3 minuter.

  • Scenariobaserade prisexempel finns på sidan med Azure Data Factory-dokumentation.

Prisinformation

Priset för Data Factory-användning beräknas utifrån följande faktorer:

  • Aktiviteternas frekvens (hög eller låg). En lågfrekvensaktivitet körs inte oftare än en gång per dag (till exempel varje dag, varje vecka, varje månad). En högfrekvensaktivitet körs oftare än en gång per dag (till exempel en gång i timmen, varje kvart). Mer information finns i avsnittet Dirigering av aktiviteter nedan.
  • Var aktiviteterna körs (moln eller på plats). Se avsnittet Dataförflyttning nedan.
  • Om en pipeline är aktiv eller inte. Se avsnittet Inaktiva pipeliner nedan.
  • Om du kör om aktiviteten eller inte. Se avsnittet Köra om aktiviteter nedan.

Dirigering av aktiviteter

Låg frekvens Hög frekvens
Aktiviteter som körs i molnet

(exempel: kopieringsaktivitet som flyttar data från en Azure-blob till en Azure SQL-databas; Hive-aktivitet som kör Hive-skript i ett Azure HDInsight-kluster).
$- per aktivitet per månad $- per aktivitet per månad
Aktiviteter som körs lokalt och inbegriper lokal IR

(exempel: kopieringsaktivitet som flyttar data från en lokal SQL Server-databas till en Azure-blob; lagrad proceduraktivitet som kör en lagrad procedur i en lokal SQL Server-databas).
$- per aktivitet per månad $- per aktivitet per månad

Information:

  • Om du använder mer än 100 aktiviteter/månad får du 20 % rabatt på både lågfrekvens- och högfrekvensscenarier.
  • De första 5 lågfrekvensaktiviteterna under en månad är kostnadsfria i både molnvarianterna och de lokala varianterna.

Dataförflyttning

Azure Data Factory kan kopiera data mellan olika datalager på ett säkert, tillförlitligt, effektivt och skalbart sätt. I takt med att datavolymen eller dataflyttflödet växer kan Azure Data Factory skala ut för att täcka behovet. Läs guiden om prestanda för kopieringsaktiviteter för att få information om hur du utnyttjar enheter för dataförflyttning och förbättrar prestandan för dataförflyttning.

Dataförflyttning mellan molndatalager $- per timme
Dataförflyttning när ett lokalt lager är involverat $- per timme
Obs!
Kostnader kan tillkomma för dataöverföring. Dessa visas då separat på fakturan som en utgående dataöverföring. Pris för utgående dataöverföring tillämpas när data lämnar Azures datacenter. Läs prisinformationen om dataöverföringar för mer information.

Inaktiva pipelines

Du måste ange en aktiv databearbetningsperiod med ett datum-/tidsintervall (start- och sluttid) för varje pipeline som du distribuerar till Azure Data Factory. Pipelinen räknas som aktiv under den angivna perioden, även om aktiviteterna egentligen inte körs. Den betraktas som inaktiv alla andra tider.

En inaktiv pipeline debiteras enligt $- per månad.

Pipelines som är inaktiva under en hel månad faktureras enligt aktuellt pris för inaktiva pipelines för den månaden. Pipelines som är inaktiva under en del av en månad faktureras för de inaktiva perioderna baserat på en proportionerlig beräkning av antalet timmar som de är inaktiva under den månaden. Om exempelvis en pipeline har ett startdatum och en starttid 2016-01-01 kl. 12.00 och ett slutdatum och en sluttid 2016-01-20 kl. 12.00 betraktas pipelinen som aktiv under 20 dagar och inaktiv under 11 dagar. Kostnaden för en inaktiv pipeline ($-) beräknas för 11 dagar.

Om du inte har angivit en aktiv databearbetningsperiod (start- och sluttid) för en pipeline betraktas den som inaktiv.

Köra om aktiviteter

Du kan köra om aktiviteter om det behövs (om till exempel datakällan inte var tillgänglig vid den schemalagda körningen). Kostnaden för att köra om aktiviteter varierar baserat på varifrån aktiviteten körs. Kostnaden för att köra om aktiviteter i molnet är $- per 1 000 omkörningar. Kostnaden för att köra om aktiviteter lokalt är $- per 1 000 omkörningar.

Exempel

Tänk dig att du har en datapipeline med följande två aktiviteter som körs en gång per dag (lågfrekvens):

  1. En kopieringsaktivitet som kopierar data från en lokal SQL Server-databas till en Azure-blob.
  2. En Hive-aktivitet som kör ett Hive-skript på ett Azure HDInsight-kluster.

Vi utgår ifrån att det tar 2 timmar på en dag att förflytta data från en lokal SQL Server-databas till Azure Blob Storage. I följande tabell kan du se kostnaderna som är kopplade till denna pipeline:

Den första aktiviteten (kopiera data från lokal till Azure)
Dataförflyttningskostnad (per månad) 30 dagar per månad
2 timmar per dag
$-
$-
Dirigering av aktivitetskostnad (per månad) $-
Delsumma (per månad) $-
Den andra aktiviteten (ett Hive-skript som körs på Azure HDInsight)
Dataförflyttningskostnad (per månad) $-
Dirigering av aktivitetskostnad (per månad) $-
Delsumma (per månad) $-
Totala aktiviteter (per månad) $-

Du kan också beräkna kostnaderna för detta scenario med Data Factory-prissättningen.

Information:

  • De fem första moln- och lokal aktiviteterna är utan kostnad. Kostnaderna ovan utgår ifrån att du redan har använt fem moln- och fem lokala aktiviteter per månad (i andra pipeliner).
  • Azure Storage- och HDInsight-tjänsterna debiteras separat enligt priserna per tjänst.

Support och serviceavtal

  • Gratis support för fakturering och prenumeration.
  • Flexibla supportavtal från $29/månad. Leta efter ett avtal
  • Vi garanterar att vi minst 99,9 % av tiden kommer att framgångsrikt bearbeta förfrågningar om att utföra åtgärder mot Data Factory-resurser.
  • Vi garanterar att alla aktivitetskörningar kommer att initieras inom 4 minuter från deras schemalagda körningstider minst 99,9 % av tiden.
  • Mer information om serviceavtal finns på sidan med serviceavtal.

Vanliga frågor och svar

  • Aktiviteter definierar åtgärderna som ska vidtas för dina data. Varje aktivitet tar noll eller fler datauppsättningar som indata och producerar en eller flera datauppsättningar som utdata. En aktivitet är en dirigeringsenhet i Azure Data Factory.

    Du kan exempelvis använda en kopieringsaktivitet för att dirigera kopieringsdata från en datauppsättning till en annan. På samma sätt kan du använda en Hive-aktivitet för att köra en Hive-fråga på ett Azure HDInsight-kluster för att omvandla eller analysera data. Azure Data Factory tillhandahåller en stor mängd olika aktiviteter för dataomvandling och dataförflyttning. Du kan även välja att skapa en anpassad .NET-aktivitet för att köra din egen kod.

  • En pipeline är en logisk gruppering av aktiviteter. Pipeliner kan vara aktiva under en tidsperiod som anges av användaren (start- och sluttid). Pipeliner är inaktiva alla andra tider.
  • Ja. Om aktiviteten använder andra Azure-tjänster, t.ex. HDInsight, debiteras dessa tjänster separat enligt priserna per tjänst.

  • Det finns två typer av kostnader kopplade till att utföra en datakopia. För det första har vi beräkningsresurserna som används för att utföra kopian. Dessa visas i dataförflyttningsmätaren. Det finns en molnversion och en lokal version av dataförflyttningsmätaren. Lokal dataförflyttning kostar mindre eftersom en del av beräkningarna som är kopplade till kopian utförs av dina egna lokala resurser. Dataförflyttningsavgifter beräknas utifrån antal minuter och avrundas uppåt. (Om bearbetningstiden för en datakopiering exempelvis tar 41 minuter och 23 sekunder blir kostnaden för 42 minuter).

    Dessutom kan kostnader tillkomma för dataöverföring. Dessa visas då separat på fakturan som en utgående dataöverföring. Pris för utgående dataöverföring tillämpas när data lämnar Azures datacenter. Läs prisinformationen om dataöverföringar för mer information.