Prezzi delle pipeline di dati

Dettagli prezzi

Azure Data Factory: Prezzi delle pipeline di dati

I prezzi per le pipeline di dati vengono calcolati in base ai fattori seguenti:

  • Orchestrazione ed esecuzione delle pipeline
  • Esecuzione e debug dei flussi di dati
  • Numero di operazioni di Data Factory come ad esempio la creazione di pipeline e il monitoraggio di pipeline

Orchestrazione ed esecuzione delle pipeline di Data Factory

Le pipeline sono flussi di controllo di passaggi discreti definite attività. Si paga per l'orchestrazione della pipeline di dati per esecuzione attività e in base alle ore del runtime di integrazione. Il runtime di integrazione, che è senza server in Azure e self-hosted negli scenari ibridi, fornisce le risorse di calcolo usate per eseguire le attività in una pipeline. Gli addebiti per il runtime di integrazione vengono ripartiti in modo proporzionale in base ai minuti, con arrotondamento per eccesso al minuto successivo.

Ad esempio, l'attività di copia di Azure Data Factory può spostare i dati tra diversi archivi dati in modo sicuro, affidabile, efficace e scalabile. Con l'aumentare delle esigenze in fatto di volume di dati o di velocità effettiva, il runtime di integrazione può aumentare la propria capacità per rispondere a queste esigenze.

Tipo Prezzo Descrizione
Orchestrazione

$- per 1.000 esecuzioni

Esecuzioni attività, trigger e debug

Runtime di integrazione self-hosted

$- per 1.000 esecuzioni

Esecuzione

Runtime di integrazione di Azure

Attività di spostamento dati: $-/DIU all'ora*

Attività della pipeline: $-/ora**

Esterni: $-/ora

Costi per eseguire un'attività di Azure Data Factory nel runtime di integrazione di Azure

Runtime di integrazione self-hosted

Attività di spostamento dati: $-/ora*

Attività della pipeline: $-/ora**

Esterni: $-/ora

Costi per eseguire un'attività di Azure Data Factory in un runtime di integrazione self-hosted

* L'uso dell'attività di copia per l'uscita di dati da un data center di Azure comporterà l'addebito di costi aggiuntivi per la larghezza di banda di rete. Questa voce per il trasferimento dei dati in uscita verrà visualizzata come riga separata nella fattura. Scopri di più sui prezzi per il trasferimento dei dati in uscita.

** Le attività della pipeline vengono eseguite nel runtime di integrazione. Le attività delle pipeline includono ricerca, recupero di metadati, eliminazione e operazioni dello schema durante la creazione (connessione di test, esplorazione dell'elenco di cartelle e dell'elenco di tabelle, recupero dello schema e anteprima dei dati).

*** Le attività esterne della pipeline vengono gestite nel runtime di integrazione ma eseguite in servizi collegati. Le attività esterne includono processi Databricks, stored procedure, attività di HDInsight e molte altre ancora. Per un elenco completo delle attività esterne, vedi qui. Per informazioni sull'attività del mapping di flussi di dati, vedi la sezione "Esecuzione e debug di flussi di dati di Data Factory" più avanti.

Esecuzione e debug dei flussi di dati

I flussi di dati sono componenti progettati visivamente in Data Factory che consentono trasformazioni di dati su larga scala. Paghi per il tempo di esecuzione e di debug dei cluster del flusso di dati per vCore all'ora. Le dimensioni di cluster minime per l'esecuzione di un flusso di dati sono pari a 8 vCore. Gli addebiti per l'esecuzione e il debug vengono ripartiti in modo proporzionale in base ai minuti, con arrotondamento per eccesso al minuto successivo.

Tipo Prezzo Descrizione
Ottimizzate per il calcolo $- per vCore all'ora Flusso di dati basato su risorse di calcolo con ottimizzazione per il calcolo
Uso generico $- per vCore all'ora Flusso di dati basato su risorse di calcolo per utilizzo generico
Ottimizzate per la memoria $- per vCore all'ora Flusso di dati basato su risorse di calcolo ottimizzate per la memoria

Nota: i flussi di dati di Data Factory applicheranno la fatturazione anche per le risorse gestite, le risorse di archiviazione BLOB e i dischi necessari per l'esecuzione e il debug dei flussi di dati. Durante l'anteprima pubblica dei flussi di dati per wrangling, inoltre, l'uso della funzionalità sarà scontato al 50% rispetto ai prezzi elencati nella tabella precedente.

Operazioni di Data Factory

Tipo Prezzo Esempi
Lettura/Scrittura* $- per 50.000 entità modificate/di riferimento Lettura/Scrittura di entità in Azure Data Factory*
Monitoraggio $- per 50.000 record esecuzione recuperati Monitoraggio di esecuzioni pipeline, attività, trigger e debug**

* Le operazioni di lettura/scrittura per le entità di Azure Data Factory includono creazione, lettura, aggiornamento ed eliminazione. Le entità includono set di dati, servizi collegati, pipeline, runtime di integrazione e trigger.

** Le operazioni di monitoraggio includono il recupero e la visualizzazione delle esecuzioni pipeline, attività, trigger e debug.

Pipeline inattive

Una pipeline viene considerata inattiva se non ha trigger associati o esecuzioni nel mese. Una pipeline inattiva viene addebitata alla tariffa di $- al mese.

Domande frequenti

  • Le operazioni di lettura/scrittura includono creazione, lettura, aggiornamento ed eliminazione delle entità di Azure Data Factory. Le entità includono set di dati, servizi collegati, pipeline, runtime di integrazione e trigger.
  • Le operazioni di monitoraggio includono il recupero e la visualizzazione di esecuzioni pipeline, attività, trigger e debug.
  • Un'attività è un passaggio in una pipeline. L'esecuzione di ogni attività viene definita esecuzione.
  • Il runtime di integrazione è l'infrastruttura di calcolo usata da Azure Data Factory per fornire le seguenti funzionalità di integrazione di dati in diversi ambienti di rete:

    • Spostamento dati: trasferimento di dati tra gli archivi dati in reti pubbliche e private (private locali o virtuali) fornendo al tempo stesso il supporto per connettori incorporati, conversione di formati, mapping di colonne e trasferimenti di dati efficienti e ridimensionabili.
    • Invio di attività: invio e monitoraggio di attività di trasformazione in esecuzione in diversi servizi di calcolo, come Azure HDInsight, Azure Machine Learning, il database SQL di Azure, SQL Server e altri ancora.
    • Esecuzione dei pacchetti di SQL Server Integration Services: esecuzione nativa dei pacchetti di SQL Server Integration Service in un ambiente di calcolo gestito di Azure.
  • Un trigger è un'unità di elaborazione che determina quando deve essere avviata l'esecuzione di una pipeline. Un'esecuzione trigger è l'esecuzione di un trigger che può generare un'esecuzione attività se vengono soddisfatte le condizioni.
  • Un'esecuzione debug è un'esecuzione di prova che l'utente può eseguire durante lo sviluppo iterativo per assicurarsi che i passaggi nella pipeline funzionino come previsto prima della pubblicazione delle modifiche nella data factory.
  • Una pipeline inattiva è una pipeline che non è stata associata ad alcun trigger e che non contiene esecuzioni in un mese. I costi verranno addebitati dopo un mese di zero esecuzioni.
  • Le attività di esecuzione delle pipeline, ovvero spostamento dati del runtime di integrazione di Azure, attività delle pipeline, spostamento dati del runtime di integrazione self-hosted, attività delle pipeline ed esterne, vengono fatturate in base alla tariffa oraria indicata in precedenza. Gli addebiti per l'esecuzione delle pipeline vengono ripartiti in modo proporzionale in base ai minuti, con arrotondamento per eccesso al minuto successivo.

    Ad esempio: se esegui un'operazione che richiede 2 minuti e 20 secondi, ti verranno fatturati 3 minuti.

  • Nella pagina Documentazione di Azure Data Factory sono disponibili esempi di prezzi basati su scenari.

Dettagli prezzi

I prezzi per l'utilizzo di Data Factory vengono calcolati in base ai fattori seguenti:

  • Frequenza delle attività (alta o bassa). Un'attività a bassa frequenza viene eseguita non più di una volta in un giorno, ad esempio una volta al giorno, una volta alla settimana o una volta al mese. Un'attività ad alta frequenza avviene più di una volta al giorno, ad esempio ogni ora o ogni 15 minuti. Per informazioni dettagliate, vedi la sezione Orchestrazione di attività di seguito.
  • Ambiente in cui vengono eseguite le attività (cloud o locale). Vedi la sezione Spostamento dati di seguito.
  • Attività o inattività di una pipeline. Vedi la sezione Pipeline inattive di seguito.
  • Riesecuzione o meno di un'attività. Vedi la sezione Riesecuzione di attività di seguito.

Orchestrazione di attività

Bassa frequenza Alta frequenza
Attività in esecuzione nel cloud

(esempi: un'attività di copia per lo spostamento dati da un BLOB di Azure a un database SQL di Azure e un'attività Hive per l'esecuzione di uno script Hive in un cluster Azure HDInsight).
$- per attività al mese $- per attività al mese
Attività in esecuzione in locale e che coinvolgono un runtime di integrazione self-hosted

(esempi: un'attività di copia per lo spostamento dati da un database di SQL Server locale a un BLOB di Azure e un'attività stored procedure per l'esecuzione di una stored procedure in un database di SQL Server locale).
$- per attività al mese $- per attività al mese

Note:

  • In caso di uso oltre a 100 attività/mese, verrà applicato uno sconto del 20% per scenari sia a frequenza ridotta sia a frequenza elevata.
  • Le prime 5 attività a frequenza ridotta in un mese sono gratuite per entrambe le varianti, cloud e locale.

Spostamento dati

Azure Data Factory può copiare i dati tra diversi archivi dati in modo sicuro, affidabile, efficace e scalabile. Con l'aumentare delle tue esigenze in fatto di volume di dati o di velocità effettiva di spostamento dati, Azure Data Factory aumenta la propria capacità per rispondere a queste esigenze. Per informazioni su come sfruttare le unità di spostamento dati per incrementare le prestazioni, fai riferimento alla guida alle prestazioni delle attività di copia.

Spostamento dati tra archivi dati cloud $- all'ora
Spostamento dati quando è presente un archivio locale $- all'ora
Nota:
Potrebbero venire addebitate spese di trasferimento dati, indicate in fattura come voce distinta relativa al trasferimento dati in uscita. Le spese per il trasferimento dati in uscita vengono addebitate se i dati vengono spostati esternamente ai data center di Azure. Per altre informazioni, vedi i dettagli sui prezzi per il trasferimento dati.

Pipeline inattive

Devi specificare un periodo di elaborazione dati attivo usando un intervallo di date/ore (date e ore di inizio e di fine) per ogni pipeline che distribuisci in Azure Data Factory. La pipeline è considerata attiva per il periodo di tempo specificato, anche se le attività correlate non vengono effettivamente eseguite. Viene considerata inattiva in tutti gli altri momenti.

Una pipeline inattiva viene addebitata alla tariffa di $- al mese.

Le pipeline inattive per un mese intero vengono fatturate in base alla tariffa mensile in vigore per le pipeline inattive. Le pipeline inattive per una parte del mese vengono fatturate in base a una ripartizione proporzionale per il numero di ore di inattività nel mese. Ad esempio, se una pipeline ha una data e un'ora di inizio impostate sull'1/1/2016 alle 12.00 e una data e un'ora di fine impostate sul 20/1/2016 alle 12.00, viene considerata attiva per questi 20 giorni e inattiva per 11 giorni. L'addebito per la pipeline inattiva ($-) viene ripartito in modo proporzionare per 11 giorni.

Se una pipeline non è associata ad alcun periodo di elaborazione dati attivo (ore e date di inizio e di fine), la pipeline è considerata inattiva.

Riesecuzione di attività

Le attività possono essere rieseguite se necessario, ad esempio se l'origine dati non è disponibile durante l'esecuzione pianificata. Il costo della riesecuzione delle attività varia a seconda della posizione in cui vengono eseguite. Il costo per la riesecuzione delle attività nel cloud è di $- per 1.000 riesecuzioni. Il costo per la riesecuzione delle attività in locale è di $- per 1.000 riesecuzioni.

Esempio

Supponi di avere una pipeline di dati con le due attività seguenti eseguite una volta al giorno (bassa frequenza):

  1. Un'attività di copia che copia i dati da un database di SQL Server locale a un BLOB di Azure.
  2. Un'attività Hive che esegue uno script Hive in un cluster Azure HDInsight.

Supponi che per spostare i dati dal database di SQL Server locale all'archiviazione BLOB di Azure siano necessarie 2 ore al giorno. La tabella seguente mostra i costi associati alla pipeline:

Prima attività (copia dei dati dall'ambiente locale ad Azure)
Costo dello spostamento dati (al mese) 30 giorni al mese
2 ore al giorno
$-
$-
Costo dell'orchestrazione di attività (al mese) $-
Subtotale (al mese) $-
Seconda attività (script Hive in esecuzione in Azure HDInsight)
Costo dello spostamento dati (al mese) $-
Costo dell'orchestrazione di attività (al mese) $-
Subtotale (al mese) $-
Attività totali (al mese) $-

Puoi anche usare il calcolatore dei prezzi di Data Factory per calcolare i costi per questo scenario.

Note:

  • Le prime cinque attività nel cloud o in locale non vengono addebitate. Gli addebiti indicati sopra presuppongono che siano già state usate cinque attività nel cloud e cinque in locale al mese (in altre pipeline).
  • I servizi Archiviazione di Azure e Azure HDInsight vengono fatturati separatamente in base alle rispettive tariffe per servizio.

Supporto e contratto di servizio

  • Supporto gratuito per la fatturazione e la gestione delle sottoscrizioni.
  • Piani di supporto flessibili a partire da $29 al mese. Acquista un piano
  • Garantiamo che per almeno il 99,9% del tempo elaboreremo correttamente le richieste di esecuzione di operazioni sulle risorse di Data factory.
  • Garantiamo che per almeno il 99,9% del tempo tutte le esecuzioni di attività verranno avviate entro 4 minuti dalle ore di esecuzione pianificate.
  • Per altre informazioni sul contratto di servizio, visita la pagina del contratto di servizio.

Domande frequenti

  • Le attività definiscono le azioni da eseguire sui dati. Ogni attività accetta zero o più set di dati come input e produce uno o più set di dati come output. Un'attività è un'unità di orchestrazione in Azure Data Factory.

    Ad esempio, puoi usare un'attività di copia per orchestrare la copia di dati da un set di dati a un altro. Analogamente, puoi usare un'attività Hive per eseguire una query Hive su un cluster Azure HDInsight per trasformare o analizzare i dati. Azure Data Factory offre un'ampia gamma di attività di trasformazione dati e spostamento dati. Puoi anche scegliere di creare un'attività .NET personalizzata per eseguire il tuo codice.

  • Una pipeline è un raggruppamento logico di attività. Le pipeline possono essere attive per un periodo di tempo specificato dall'utente (date e ore di inizio e di fine). Le pipeline sono inattive in tutti gli altri momenti.
  • Sì. Se l'attività usa servizi di Azure come HDInsight, questi servizi verranno fatturati separatamente in base alle rispettive tariffe per servizio.

  • I costi applicati all'esecuzione di una copia di dati sono divisi in due gruppi. Prima di tutto, le risorse di calcolo usate per l'esecuzione della copia sono rappresentate dal contatore per lo spostamento dati. Il contatore per lo spostamento dati prevede una versione cloud e una locale e lo spostamento dati in locale è meno costoso perché una parte dell'attività di calcolo associata alla copia viene eseguita dalle risorse locali. Gli addebiti per lo spostamento dati vengono ripartiti in modo proporzionale in base ai minuti, con arrotondamento per eccesso al minuto successivo. Ad esempio, per un'operazione di copia di dati che richiede un tempo di calcolo di 41 minuti e 23 secondi, vengono addebitati 42 minuti.

    Potrebbero inoltre venire addebitate spese di trasferimento dei dati, indicate in fattura come voce distinta relativa al trasferimento dei dati in uscita. Le spese per il trasferimento dati in uscita vengono addebitate se i dati vengono spostati esternamente ai data center di Azure. Per altre informazioni, vedi i dettagli sui prezzi per il trasferimento dati.