Hoppa till huvudinnehåll

Priser för Datapipeline

Enkel integrering av hybriddata i företagsklass

Utforska en rad dataintegrationsmöjligheter som passar dina behov inom skala, infrastruktur, kompatibilitet, prestanda och budget – från hanterade SQL Server Integration Services för smidig migrering av SQL Server-projekt till molnet till storskaliga, serverlösa datapipelines för integrering av data i alla former och storlekar.

Utforska prisalternativ

Använd filter för att anpassa prisalternativ efter dina behov.

Priserna är endast uppskattningar och är inte avsedda som faktiska priscitat. Den faktiska prissättningen kan variera beroende på vilken typ av avtal som ingås med Microsoft, inköpsdatum och växelkursen. Priserna beräknas baserat på amerikanska dollar och konverteras med London stängningskurs som registreras under de två arbetsdagarna före den sista arbetsdagen i föregående månads slut. Om de två arbetsdagarna före slutet av månaden infaller på en helgdag på större marknader är prisinställningsdagen vanligtvis dagen omedelbart före de två arbetsdagarna. Den här avgiften gäller för alla transaktioner under den kommande månaden. Logga in på priskalkylatorn för Azure för att se priser baserat på ditt aktuella program/erbjudande hos Microsoft. Kontakta en Azure försäljningsspecialist för mer information om prissättning eller för att begära en prisoffert. Se vanliga frågor och svar om Prissättning för Azure.

Priserna för Data Pipeline beräknas på:

  • Dirigering och körning av pipeline
  • Körning och felsökning av dataflöde
  • Antal Data Factory-åtgärder, till exempel att skapa eller övervaka pipeline eller

Orkestrering och körning av Data Factory Pipeline

Pipelines är kontrollflöden med separata steg som kallas aktiviteter. Du betalar för orkestrering av en datapipeline per aktivitetskörning, och för aktivitetskörningar per timme integreringskörning. Integreringskörningen är serverlös i Azure och lokal i hybridscenarier och tillhandahåller de beräkningsresurser som används för att köra aktiviteterna i en pipeline. Avgifter för integreringskörningar beräknas utifrån antalet minuter och avrundas uppåt.

Kopieringsaktiviteten i Azure Data Factory kan till exempel flytta data mellan olika datalager på ett säkert, tillförlitligt, effektivt och skalbart sätt. Om datavolymen eller dataflödet behöver växa kan integrationskörningen skala ut efter behov.

Typ Pris för Azure Integration Runtime Pris för Integration Runtime för Azure-hanterat virtuellt nätverk Pris för lokalt installerad integrationskörning
Orkestrering1 $- per 1 000 körningar $- per 1 000 körningar $- per 1 000 körningar
Aktivitet relaterad till dataflytt2 $-/DIU-timme $-/DIU-timme $-/timme
Pipeline-aktivitet3 $-/timme

$-/timme

(Upp till 50 samtidiga pipeline-aktiviteter)

$-/timme

Extern pipeline-aktivitet4 $-/timme $-/timme

(Upp till 800 samtidiga pipeline-aktiviteter)

$-/timme
1Orkestrering syftar på aktivitetskörningar, utlösarkörningar och felsökningskörningar.
2När kopieringsaktiviteten används för att föra ut data från ett Azure-datacenter debiteras den ytterligare nätverksbandbredd som används. Denna kostnad visas som en separat post för utgående dataöverföring på din faktura. Mer information om priser för utgående dataöverföring.
3Pipeline-aktiviteter körs på Integration Runtime. Pipeline-aktiviteterna omfattar sökning, hämtning av metadata, borttagning och schemaåtgärder vid redigering (testa anslutning, bläddra i mapplista och tabellista, hämta schema och förhandsgranska data).
4Externa pipeline-aktiviteter hanteras vid integrationskörning men körs på länkade tjänster. Externa aktiviteter omfattar databricks, lagrade procedurer, HDInsight-aktiviteter med mera. Gå hit för en fullständig lista över externa aktiviteter. Se avsnittet om körning och felsökning för Data Factory-flöden nedan för aktiviteten Mappning av dataflöde.

Körning och felsökning av dataflöde

Dataflöden är visuellt utformade komponenter i Data Factory som möjliggör dataomvandling i stor skala. Du betalar för tiden för körning och felsökning av dataflödesklustret per vCore-timme. Den minsta klusterstorleken för körning av ett dataflöde är åtta virtuella kärnor (vCore). Avgifter för körning och felsökning beräknas per minut och avrundas uppåt. Sammanställning av ändringsdata-artefakter faktureras enligt priser för Generell användning för kluster med 4 virtuella kärnor under den offentliga förhandsversionen av CDC.

CDC-objekt (Change Data Capture) körs på samma infrastruktur för dataflödesberäkning med hjälp av en dator med en enda nod med 4 virtuella kärnor. Samma prisrabatt för dataflöde reserverad instans gäller även FÖR CDC-resurser.

Typ Pris 1-årig reservation
(% besparing)
3-årig reservation
(% besparing)
Generellt syfte $- per vCore-timme $- per vCore-timme $- per vCore-timme
Minnesoptimerad $- per vCore-timme $- per vCore-timme $- per vCore-timme

OBS: Dataflöden i Data Factory faktureras även för den hanterade disk- och blobblagring som krävs vid körning och felsökning i dataflöden.

Azure Data Factory arbetsflödesdirigeringshanterare

Storlek Arbetsflödeskapacitet Schemaläggarens vCPU Arbetar-vCPU VCPU för webbserver Pris per timme
Liten (D2v4) Upp till 50 DAGs 2 2 2 $-
Stor (D4v4) Upp till 1 000 DAGs 4 4 4 $-

Ytterligare nod Arbetar-vCPU Pris per timme
Liten (D2v4) 2 $-
Stor (D4v4) 4 $-

Data Factory-åtgärder

Typ Pris Exempel
Läsa/Skriva* $- per 50 000 modifierade/refererade entiteter Läsning/skrivning på entiteter i Azure Data Factory*
Övervakning $- per 50 000 körningsposter har hämtats Övervakning av pipeline, aktivitet, utlösare och felsökning**
* Läs-/skrivåtgärder för Azure Data Factory-entiteter omfattar att skapa, läsa, uppdatera och ta bort. Entiteter omfattar datamängd, länkade tjänster, pipelines, integrationskörning och utlösare.
** Övervakningsåtgärderna omfattar att hämta och lista för pipeline, aktivitet, utlösare och felsökningar.

Priset för Data Factory-användning beräknas utifrån följande faktorer:

  • Aktiviteternas frekvens (hög eller låg). En lågfrekvensaktivitet körs inte oftare än en gång per dag (till exempel varje dag, varje vecka, varje månad). En högfrekvensaktivitet körs oftare än en gång per dag (till exempel en gång i timmen, varje kvart). Mer information finns i avsnittet Dirigering av aktiviteter nedan.
  • Var aktiviteterna körs (moln eller på plats). Se avsnittet Dataförflyttning nedan.
  • Om en pipeline är aktiv eller inte. Se avsnittet Inaktiva pipeliner nedan.
  • Om du kör om aktiviteten eller inte. Se avsnittet Köra om aktiviteter nedan.

Dirigering av aktiviteter

Låg frekvens Hög frekvens
Aktiviteter som körs i molnet

(exempel: kopieringsaktivitet som flyttar data från en Azure-blob till en Azure SQL-databas; Hive-aktivitet som kör Hive-skript i ett Azure HDInsight-kluster).
$- per aktivitet per månad $- per aktivitet per månad
Aktiviteter som körs lokalt och inbegriper lokal IR

(exempel: kopieringsaktivitet som flyttar data från en lokal SQL Server-databas till en Azure-blob; lagrad proceduraktivitet som kör en lagrad procedur i en lokal SQL Server-databas).
$- per aktivitet per månad $- per aktivitet per månad

Anteckningar:

  • Användaranvändning utöver 100 aktiviteter/månad får 20 % rabatt för scenarier med både låg frekvens och hög frekvens.
  • Första 5 lågfrekvensaktiviteter under en månad är kostnadsfria i både molnvarianter och lokala varianter.

Dataförflyttning

Azure Data Factory kan kopiera data mellan olika datalager på ett säkert, tillförlitligt, effektivt och skalbart sätt. I takt med att datavolymen eller dataflyttflödet växer kan Azure Data Factory skala ut för att täcka behovet. Läs guiden om prestanda för kopieringsaktiviteter för att få information om hur du utnyttjar enheter för dataförflyttning och förbättrar prestandan för dataförflyttning.

Dataförflyttning mellan molndatalager $- per timme
Dataförflyttning när ett lokalt lager är involverat $- per timme
Obs!
Kostnader kan tillkomma för dataöverföring. Dessa visas då separat på fakturan som en utgående dataöverföring. Pris för utgående dataöverföring tillämpas när data lämnar Azures datacenter. Läs prisinformationen om dataöverföringar för mer information.

Inaktiva pipelines

Du måste ange en aktiv databearbetningsperiod med ett datum-/tidsintervall (start- och sluttid) för varje pipeline som du distribuerar till Azure Data Factory. Pipelinen räknas som aktiv under den angivna perioden, även om aktiviteterna egentligen inte körs. Den betraktas som inaktiv alla andra tider.

En inaktiv pipeline debiteras enligt $- per månad.

Pipelines som är inaktiva under en hel månad faktureras enligt aktuellt pris för inaktiva pipelines för den månaden. Pipelines som är inaktiva under en del av en månad faktureras för de inaktiva perioderna baserat på en proportionerlig beräkning av antalet timmar som de är inaktiva under den månaden. Om exempelvis en pipeline har ett startdatum och en starttid 2016-01-01 kl. 12.00 och ett slutdatum och en sluttid 2016-01-20 kl. 12.00 betraktas pipelinen som aktiv under 20 dagar och inaktiv under 11 dagar. Kostnaden för en inaktiv pipeline ($-) beräknas för 11 dagar.

Om du inte har angivit en aktiv databearbetningsperiod (start- och sluttid) för en pipeline betraktas den som inaktiv.

Köra om aktiviteter

Du kan köra om aktiviteter om det behövs (om till exempel datakällan inte var tillgänglig vid den schemalagda körningen). Kostnaden för att köra om aktiviteter varierar baserat på varifrån aktiviteten körs. Kostnaden för att köra om aktiviteter i molnet är $- per 1 000 omkörningar. Kostnaden för att köra om aktiviteter lokalt är $- per 1 000 omkörningar.

Exempel

Tänk dig att du har en datapipeline med följande två aktiviteter som körs en gång per dag (lågfrekvens):

  1. En kopieringsaktivitet som kopierar data från en lokal SQL Server-databas till en Azure-blob.
  2. En Hive-aktivitet som kör ett Hive-skript på ett Azure HDInsight-kluster.

Vi utgår ifrån att det tar 2 timmar på en dag att förflytta data från en lokal SQL Server-databas till Azure Blob Storage. I följande tabell kan du se kostnaderna som är kopplade till denna pipeline:

Den första aktiviteten (kopiera data från lokal till Azure)
Dataförflyttningskostnad (per månad) 30 dagar per månad
2 timmar per dag
$-
$-
Orkestrering av aktivitetskostnad (per månad) $-
Delsumma (per månad) $-
Den andra aktiviteten (ett Hive-skript som körs på Azure HDInsight)
Dataförflyttningskostnad (per månad) $-
Orkestrering av aktivitetskostnad (per månad) $-
Delsumma (per månad) $-
Totala aktiviteter (per månad) $-

Du kan också använda Data Factory Priskalkylator för att beräkna avgifter för det här scenariot.

Notes:

  • Det finns ingen för de fem första molnaktiviteterna och lokala aktiviteterna. Avgifterna ovan förutsätter att du redan har använt fem moln- och fem lokala aktiviteter per månad (i andra pipelines).
  • Azure Storage och HDInsight-tjänster faktureras separat på deras per servicepriser.

Priser och köpalternativ för Azure

Kontakta oss direkt

Få en genomgång av priser för Azure. Förstå prissättningen för din molnlösning, läs mer om kostnadsoptimering och begär ett anpassat förslag.

Prata med en säljare

Se köpalternativ

Köp Azure-tjänster via Azure-webbplatsen, din Microsoft-representant eller en Azure-partner.

Utforska dina alternativ

Ytterligare resurser

Azure Data Factory

Läs mer om funktioner och egenskaper för Azure Data Factory.

Priskalkylator

Beräkna din förväntade månadskostnad för användning av valfri kombination av Azure-produkter.

SLA

Granska serviceavtalet för Azure Data Factory.

Dokumentation

Ta del av tekniska självstudiekurser, videor och fler resurser för Azure Data Factory.

Vanliga frågor och svar

Azure Data Factory V2

  • Läs-/skrivåtgärderna omfattar att skapa, läsa, uppdatera och ta bort Azure Data Factory-entiteter. Entiteter omfattar datamängd, länkade tjänster, pipelines, integrationskörning och utlösare.
  • Övervakningsåtgärderna omfattar att hämta och lista för pipeline, aktivitet, utlösare och felsökningar.
  • En aktivitet är ett steg inom en pipeline. Utförandet av varje aktivitet kallas körning.
  • En integrationskörning är beräkningsinfrastrukturen som används av Azure Data Factory för att ge olika nätverksmiljöer integrationsfunktioner:

    • Dataflytt: Överföring av data mellan datalager i offentliga och privata nätverk (lokala eller virtuellt privata), för att ge stöd för inbyggda anslutningsprogram, formatkonvertering, kolumnmappning samt en effektiv och skalbar dataöverföring.
    • Aktivitetssändning: Skicka och övervaka transformeringsaktiviteter som körs på en mängd olika beräkningstjänster, till exempel Azure HDInsight, Azure Machine Learning, Azure SQL Database, SQL Server med flera.
    • SQL Server Integration Services-paketkörning: Intern körning av SQL Server Integration Services-paket i en hanterad Azure-beräkningsmiljö.
  • En utlösare är en bearbetningsenhet som avgör när en pipeline-körning måste startas. En utlösarkörning är körningen av en utlösare, vilket kan starta en aktivitetskörning om villkoren uppfylls.
  • En felsökning är en testkörning som en användare kan utföra under iterativ utveckling för att kontrollera att stegen i pipeline fungerar som avsett innan ändringar publiceras till datafabriken.
  • En inaktiv pipeline är en pipeline som inte är kopplad till en utlösare, och som har noll körningar inom en månad. En avgift tas ut efter en månad med noll körningar.
  • Pipeline-körningsaktiviteter (Azure Integration Runtime-dataflytt, pipeline-aktiviteter, dataflytt med extern och lokalt installerad integrationskörning, pipeline-aktiviteter och extern) faktureras till timkostnaden som visas ovan. Pipeline-körningsavgifter beräknas utifrån antal minuter och avrundas uppåt.

    Exempel: Om du kör en åtgärd som tar 2 minuter och 20 sekunder faktureras du för 3 minuter.

  • Scenariobaserade prisexempel finns på sidan med Azure Data Factory-dokumentation.
  • Få hjälp med att planera och hantera ADF-kostnader på sidan med riktlinjer för Azure Data Factory.

Azure Data Factory V1

  • Aktiviteter definierar åtgärderna som ska vidtas för dina data. Varje aktivitet tar noll eller fler datauppsättningar som indata och producerar en eller flera datauppsättningar som utdata. En aktivitet är en dirigeringsenhet i Azure Data Factory.

    Du kan exempelvis använda en kopieringsaktivitet för att dirigera kopieringsdata från en datauppsättning till en annan. På samma sätt kan du använda en Hive-aktivitet för att köra en Hive-fråga på ett Azure HDInsight-kluster för att omvandla eller analysera data. Azure Data Factory tillhandahåller en stor mängd olika aktiviteter för dataomvandling och dataförflyttning. Du kan även välja att skapa en anpassad .NET-aktivitet för att köra din egen kod.

  • En pipeline är en logisk gruppering av aktiviteter. Pipeliner kan vara aktiva under en tidsperiod som anges av användaren (start- och sluttid). Pipeliner är inaktiva alla andra tider.
  • Ja. Om aktiviteten använder andra Azure-tjänster, t.ex. HDInsight, debiteras dessa tjänster separat enligt priserna per tjänst.

  • Det finns två typer av kostnader kopplade till att utföra en datakopia. För det första har vi beräkningsresurserna som används för att utföra kopian. Dessa visas i dataförflyttningsmätaren. Det finns en molnversion och en lokal version av dataförflyttningsmätaren. Lokal dataförflyttning kostar mindre eftersom en del av beräkningarna som är kopplade till kopian utförs av dina egna lokala resurser. Dataförflyttningsavgifter beräknas utifrån antal minuter och avrundas uppåt. (Om bearbetningstiden för en datakopiering exempelvis tar 41 minuter och 23 sekunder blir kostnaden för 42 minuter).

    Dessutom kan kostnader tillkomma för dataöverföring. Dessa visas då separat på fakturan som en utgående dataöverföring. Pris för utgående dataöverföring tillämpas när data lämnar Azures datacenter. Läs prisinformationen om dataöverföringar för mer information.

Prata med en säljare för att få en genomgång av Azure-priser. Förstå prissättningen av din molnlösning.

Få kostnadsfria molntjänster och en kredit på $200 för att utforska Azure i 30 dagar.

Har lagts till i beräkningen. Tryck på ”v” för att visa på kalkylator
Kan vi hjälpa dig?