Ignora esplorazione

Prezzi di Data Lake Analytics

Servizio di analisi on demand per azioni intelligenti

Azure Data Lake Analytics è il primo servizio di analisi basato su processi e senza server che ti permette di sviluppare ed eseguire facilmente programmi di elaborazione e trasformazione dei dati con architettura altamente parallela in U-SQL, R, Python e .NET su petabyte di dati. Nessuna infrastruttura da gestire, possibilità di elaborare i dati on demand, scalabilità immediata e pagamento in base ai processi.

Dettagli prezzi

Pagamento in base al consumo

Il modello con pagamento in base al consumo ti permette di pagare in base ai secondi senza impegni a lungo termine.

Uso Prezzo
Unità di analisi $-/ora

Pacchetti con impegno mensile

I pacchetti con impegno mensile ti offrono uno sconto significativo (fino al 74%) rispetto al modello con pagamento in base al consumo.

Ore unità di analisi incluse Prezzo/mese Risparmio rispetto al modello con pagamento in base al consumo Price Per Analytic Unit Overage Price Per Analytic Unit
100 $- $- $-
500 $- $- $-
1.000 $- $- $-
5.000 $- $- $-
10.000 $- $- $-
50.000 $- $- $-
100.000 $- $- $-
> 100.000 Contattaci

Supporto e contratto di servizio

  • Supporto gratuito per la fatturazione e la gestione delle sottoscrizioni.
  • Piani di supporto flessibili a partire da $29 al mese. Acquista un piano
  • Tempo di attività garantito del 99,9% per Azure Data Lake Analytics. Leggi il contratto di servizio

Domande frequenti

  • Un'unità di analisi di Azure Data Lake Analytics è un'unità di calcolo a disposizione di un processo U-SQL. Ogni unità di analisi consente al processo di accedere a un set di risorse sottostanti come CPU e memoria. Scopri di più sulle unità di analisi.

  • Quando crei un processo, devi allocare unità di analisi per consentire l'esecuzione del processo. Un processo attraversa 4 fasi principali, ovvero preparazione, accodamento, esecuzione e finalizzazione, e passa all'esecuzione quando le unità di analisi allocate risultano disponibili. Ti verranno addebitate le unità di analisi allocate per la durata delle fasi di esecuzione e di finalizzazione del processo. Scopri di più sulle unità di analisi.

  • Devi allocare con attenzione il numero corretto di unità di analisi in base ai requisiti dei tuoi processi. L'incremento del numero di unità di analisi rende disponibile un numero maggiore di risorse di calcolo al tuo processo, ma non aumenta tuttavia il parallelismo intrinseco del processo. A seconda delle caratteristiche del processo, ad esempio livello di parallelizzazione possibile e quantità di dati da elaborare e così via, un numero maggiore di unità di analisi potrebbe consentire un'esecuzione più rapida dei processi oppure è possibile che venga allocato un numero di unità di analisi superiore a quelle che possono essere usate. Strumenti Azure Data Lake per Visual Studio ti offre alcuni strumenti che possono aiutarti nella diagnosi delle prestazioni dei processi U-SQL e nella stima del numero ottimale di unità di analisi. Scopri di più su come risparmiare denaro e controllare i costi

  • Il prezzo è determinato dal numero di unità di analisi e dalla lunghezza del processo. Supponiamo che si verifichino i casi seguenti:

    • Caso 1: un processo richiede tre ore per il completamento con 10 unità di analisi, quindi il prezzo viene calcolato come 3*10=30 ore unità di analisi. Se il processo potesse usare 20 unità di analisi dimezzando il tempo di esecuzione, il prezzo sarebbe 1,5*20= 30 ore unità di analisi. In questo caso il prezzo sarebbe lo stesso, ma con un miglioramento della latenza.
    • Caso 2: un processo richiede cinque ore per il completamento con 10 unità di analisi, quindi il prezzo viene calcolato come 5*10=50 ore unità di analisi. Se il processo richiedesse 4 ore per il completamento con 20 unità di analisi, il prezzo sarebbe 4*20=80 ore unità di analisi. In questo caso, il costo totale aumenterebbe dell'80% e il processo finirebbe un'ora prima.
  • I costi per le transazioni di Azure Data Lake Storage Gen1 vengono addebitati ogni volta che si esegue un'operazione di lettura o scrittura di dati nel servizio. Ogni volta che un utente, un'applicazione o un altro servizio di Azure legge o scrive dati con dimensioni massime di 4 MB, l'operazione viene fatturata come singola transazione. Se, ad esempio, un'operazione di scrittura inserisce 128 KB di dati in Data Lake Storage Gen1, tale operazione viene fatturata come un'unica transazione. Le transazioni vengono fatturate in incrementi massimi di 4 MB, quindi se un elemento ha dimensioni superiori a 4 MB verrà fatturato in incrementi multipli. Se, ad esempio, un'operazione di lettura recupera 9 MB di dati da Data Lake Storage Gen1, viene fatturata come tre transazioni (4 MB + 4 MB + 1 MB).

    Ecco in che modo vengono visualizzate le transazioni nella fattura in base alle operazioni di lettura. Supponiamo in questo caso uno scenario in cui l'applicazione esegue un processo di Data Lake Analytics per quattro ore al giorno con operazioni di lettura pari a 1,000 elementi al secondo durante l'esecuzione del processo e che le dimensioni di ogni elemento siano inferiori a 4 MB. Nello scenario precedente Data Lake Storage Gen1 applicherà addebiti per le transazioni di lettura di Data Lake Analytics che legge i dati da Data Lake Storage Gen1. Verranno applicati questi addebiti:

    Elemento Volume di utilizzo al mese Tariffa mensile Costo mensile
    Transazioni di lettura da Data Lake Analytics 1,000 elementi/secondo * 3,600 * 4 * 31 $- per 10,000 transazioni $-
    Costo totale delle transazioni $-
  • Price is determined by the number of AUs you reserve for the month.

    • A billing cycle is aligned to calendar month. Therefore, it always starts the 1st day of the month and ends the last day of the month.
    • When you commit for the first time to a package, we will pro-rate the monthly price and AU-hours to the days left within that month. As an example, if you commit to a 1,000 AU-hour package and there are 10 days left within that month, you will immediately get 334 AU-hours (1,000 AU-hours / 30 days in a month x 10 day left) at a price of $- ($- / 31 days in a month x 10 day left). We pro-rate by 30 days for the AU-hours in a package and by 31 days for the price to make sure that the pro-rata is always in your favor.
    • Units in a package reset the 1st day of the month. As an example, if you commit to 100 AU-hours and you have 20 AU-hours left by the end of the month, your package will be reset to 100 AU-hours the day after. There is no roll-over for unused AU-hours.
    • You can choose a new package at any time. The change will be effective the first day of the next calendar month. This means that during a month if you have a package of 100 AU-hours and decide to commit to a 500 AU-hours package, this change will apply on the 1st day of the next calendar month. For the current calendar month, you will remain on the 100 AU-hours package.
    • We use "seconds" as the unit of measure for the consumption of your commitment package.
    • Once your package is consumed, you will be charged at the overage consumption rate.
  • Il consumo è determinato dal numero di unità di analisi e dalla lunghezza del processo. La lunghezza del processo è influenzata dal numero di unità di analisi assegnate al processo e dalle caratteristiche del processo, ad esempio le dimensioni dei dati e la complessità del calcolo.

    • Caso 1: hai un impegno per 100 ore unità di analisi e invii un processo che richiede 2 ore e 30 minuti per il completamento con 1 unità di analisi, quindi il consumo viene calcolato come 2,5*1=2,5 ore unità di analisi. Avrai 97,5 ore unità di analisi rimanenti in base all'impegno.
    • Caso 2: hai un impegno per 100 ore unità di analisi ed è rimasta solo 1 ora. Invii un processo che richiede 2 ore per il completamento con 2 unità di analisi, quindi il consumo viene calcolato come 2*2=4 ore unità di analisi. Userai l'ora unità di analisi rimanente e ti verranno addebitate 3 ore unità di analisi aggiuntive alla tariffa per le eccedenze (1,5*3 = $-)

  • Azure Data Lake Analytics ti consente di leggere e scrivere dati in Azure Data Lake Storage Gen1, nell'archiviazione BLOB di Azure e nel database SQL di Azure. L'uso di questi servizi con Azure Data Lake Analytics può comportare l'addebito delle tariffe standard per tali servizi (ad esempio per transazioni, trasferimenti di dati in uscita e così via). Per altre informazioni, vedi la pagina dei prezzi per questi servizi.

    • Annullamento di un processo:
      L'annullamento è sempre il risultato di un'azione deliberata del cliente o di un criterio amministrativo definito dall'amministratore. Il servizio Azure Data Lake Analytics non annulla autonomamente i processi, ad eccezione del caso in cui un vertice raggiunga il rispettivo limite di durata dell'esecuzione di 5 ore. Non è previsto alcun limite temporale per un processo, ma è previsto un limite per un singolo vertice. Quando un processo viene annullato, verrà fatturata la durata dell'esecuzione del processo.
    • Errore del processo:
      Gli errori dei processi sono il risultato di un errore utente o in alcuni casi di un errore del servizio Azure Data Lake Analytics. Il codice di errore di un processo non riuscito indicherà se l'errore del processo è il risultato di un errore dell'utente o del servizio. Se il codice di errore contiene il valore "USER", l'errore dipende da un errore dell'utente e in questo caso il servizio addebiterà la durata dell'esecuzione del processo. Se tuttavia l'errore contiene "SYSTEM", l'errore dipende da un errore del servizio Azure Data Lake Analytics e il processo non verrà addebitato.

Risorse

Stimare i costi mensili per i servizi di Azure

Leggi le domande frequenti sui prezzi di Azure

Altre informazioni su Data Lake Analytics

Vedi esercitazioni tecniche, video e altre risorse

Aggiunto alla stima. Premi 'v' per visualizzare nel calcolatore Visualizza nel calcolatore

Apprendi e crea con $200 di credito e continua a usare le risorse gratuitamente