Avançar para o conteúdo principal

Preços do Pipeline de Dados

Integração de dados híbrida em escala empresarial mais fácil

Explore um vasto leque de funcionalidades de integração de dados para dar resposta às suas necessidades de dimensionamento, infraestrutura, compatibilidade, desempenho e orçamento, desde a funcionalidade SQL Server Integration Services gerida para a migração totalmente integrada de projetos do SQL Server para a cloud, aos pipelines de dados sem servidor de larga escala tendo em vista a integração de dados de todas as formas e tamanhos.

Explorar opções de preços

Aplique filtros para personalizar as opções de preços à medida das suas necessidades.

Os preços são apenas estimativas e não propostas de preços reais. Os preços reais podem variar dependendo do tipo de contrato que foi estipulado com a Microsoft, da data de compra e da taxa de câmbio. Os preços são calculados com base em dólares americanos e convertidos com as taxas de encerramento de Londres que são capturadas nos dois dias úteis anteriores ao último dia útil do fim do mês anterior. Se os dois dias úteis anteriores ao fim do mês calharem num feriado nos principais mercados, o dia de definição da taxa é geralmente o dia imediatamente anterior aos dois dias úteis. Esta taxa aplica-se a todas as transações durante o mês seguinte. Inicie sessão na calculadora de preços do Azure para ver os preços com base no seu programa/oferta atual com a Microsoft. Contacte um especialista de vendas do Azure para obter mais informações sobre preços ou para pedir um orçamento de preço. Consulte as perguntas mais frequentes sobre os preços do Azure.

Os preços do Pipeline de Dados são calculados com base em:

  • Orquestração e execução do pipeline
  • Execução e depuração do fluxo de dados
  • Número de operações do Data Factory, como a criação de pipelines e a monitorização de pipelines

Orquestração e Execução do Pipeline do Data Factory

Os pipelines são fluxos de controlo compostos por passos distintos designados por atividades. A orquestração do pipeline de dados é paga por execução de atividade e, por sua vez, a execução de atividade é paga com base nas horas de runtime de integração. O runtime de integração, sem servidor no Azure e autoalojado em cenários híbridos, fornece os recursos de computação utilizados para executar as atividades num pipeline. Os custos de runtime de integração são calculados proporcionalmente ao minuto e arredondados por excesso.

Por exemplo, a atividade de cópia do Azure Data Factory pode mover dados entre os vários arquivos de dados de uma forma segura, fiável, eficiente e dimensionável. À medida que as necessidades em matéria de volume de dados ou de débito aumentam, o runtime de integração pode ser aumentado horizontalmente para fazer face a essas necessidades.

Tipo Preço do Azure Integration Runtime Preço do Runtime de Integração de VNET Gerida do Azure Preço do Runtime de Integração Autoalojado
Orquestração1 $- por cada 1 000 execuções $- por cada 1 000 execuções $- por cada 1 000 execuções
Atividade de movimento de dados2 $-/DIU-hora $-/DIU-hora $-/hora
Atividade do Pipeline3 $-/hora

$-/hora

(Até 50 atividades de pipeline simultâneas)

$-/hora

Atividade do Pipeline Externo4 $-/hora $-/hora

(Até 800 atividades de pipeline simultâneas)

$-/hora
1A orquestração refere-se a execuções de atividade, acionador e depuração.
2A utilização da atividade de cópia para retirar dados de um datacenter do Azure está sujeita à aplicação de taxas de largura de banda de rede adicionais, as quais serão apresentadas como um item de transferência de dados de saída separado na fatura. Saiba mais sobre os preços de transferência de dados de saída.
3As atividades de pipeline são executadas no runtime de integração. As atividades de pipeline incluem Pesquisar, Obter metadados, Eliminar e Operações de esquema durante o processo de criação (testar ligação, navegar na lista de pastas e na lista de tabelas, obter esquema e pré-visualizar dados).
4As atividades de pipeline externas são geridas no runtime de integração, mas são executadas nos serviços ligados. As atividades externas incluem atividades do Databricks, procedimento armazenado, HDInsight e muitas outras. Clique aqui para obter uma lista completa das atividades externas. Para informações sobre o Fluxo de Dados de Mapeamento, consulte a secção “Data Factory Data Flow Execution and Debugging” (Execução e Depuração do Fluxo de Dados do Data Factory).

Execução e Depuração do Fluxo de Dados

Os Fluxos de Dados são componentes concebidos visualmente dentro do Data Factory que permitem transformações de dados em escala. Paga pelo tempo de execução e depuração do cluster do Fluxo de Dados por hora de vCore. O tamanho mínimo do cluster para executar um Fluxo de Dados é de 8 vCores. Os custos de execução e depuração são rateados ao minuto e arredondados por cima. Os artefactos de Captura de Dados De alterações são faturados de acordo com as tarifas para Fins Gerais para clusters de 4 vCores durante a pré-visualização pública do CDC.

Os objetos de Captura de Dados Alterados (CDC) são executados na mesma infraestrutura de computação de fluxo de dados utilizando um único computador vCore de nó 4. O mesmo Fluxo de Dados desconto de preços da Instância Reservada também se aplica aos recursos CDC.

Tipo Preço Um Ano Reservado
(% de Poupanças)
Três Anos Reservados
(% de Poupanças)
Fins Gerais $- por vCore-hora $- por vCore-hora $- por vCore-hora
Memória Otimizada $- por vCore-hora $- por vCore-hora $- por vCore-hora

Nota: Os Fluxos de Dados do Data Factory também cobrarão o armazenamento gerido de discos e de blobs necessário para a execução e depuração do Fluxo de Dados.

Gestor de orquestração de fluxos de trabalho do Azure Data Factory

Tamanho Capacidade de Fluxo de Trabalho vCPU do scheduler vCPU de trabalho vCPU do Servidor Web Preço por hora
Pequeno (D2v4) Até 50 DAG 2 2 2 $-
Grande (D4v4) Até 1 000 DAG 4 4 4 $-

Nó adicional vCPU de trabalho Preço por hora
Pequeno (D2v4) 2 $-
Grande (D4v4) 4 $-

Operações de Data Factory

Tipo Preço Exemplos
Leitura/Escrita* $- por cada 50 000 entidades modificadas/referenciadas Leitura/escrita de entidades no Azure Data Factory*
Monitorização $- por cada 50 000 registos de execução obtidos Monitorização de execuções do pipeline, de atividades, de acionadores e de depuração**
* As operações de leitura/escrita para entidades do Azure Data Factory incluem a criação, leitura, atualização e eliminação. As entidades incluem conjuntos de dados, serviços ligados, pipelines, runtime de integração e acionadores.
** As operações de monitorização incluem a obtenção e listagem de execuções do pipeline, de atividades, de acionadores e de depuração.

Os preços da utilização do Data Factory são calculados com base nos seguintes fatores:

  • A frequência das atividades (alta ou baixa). Uma atividade de baixa frequência não é executada mais que uma vez por dia (por exemplo: diária, semanal, mensal); já uma atividade de frequência elevada é executada mais que uma vez por dia (por exemplo: por hora, a cada 15 minutos). Veja a secção Orquestração de atividades abaixo para obter mais detalhes.
  • O local de execução das atividades (na cloud ou no local). Veja a secção Movimento de Dados abaixo.
  • Se um pipeline está ou não ativo. Veja a secção Pipelines Inativos abaixo.
  • Se está a executar uma atividade novamente. Veja a secção Executar atividades novamente abaixo.

Orquestração de atividades

Baixa frequência Elevada frequência
Atividades em execução na cloud

(exemplos: atividade de cópia a mover dados de um blob do Azure para uma base de dados SQL do Azure; atividade do Hive a executar um script do Hive num cluster do Azure HDInsight).
$- por atividade por mês $- por atividade por mês
Atividades em execução no local e que envolvem um IR autoalojado

(exemplos: atividade de cópia a mover dados de uma base de dados do SQL Server no local para um blob do Azure; atividade de procedimento armazenado a executar um procedimento armazenado numa base de dados do SQL Server no local).
$- por atividade por mês $- por atividade por mês

Notas:

  • A utilização para além de 100 atividades/mês receberá um desconto de 20% para cenários de baixa frequência e elevada frequência.
  • As primeiras 5 atividades de baixa frequência num mês são gratuitas em variantes na nuvem e no local.

Movimento de Dados

O Azure Data Factory pode copiar dados entre vários arquivos de dados de forma segura, fiável, eficiente e dimensionável. À medida que as suas necessidades associadas ao volume de dados ou ao débito do movimento de dados aumentam, o Azure Data Factory pode aumentar horizontalmente para dar resposta a essas necessidades. Veja o Guia de Desempenho da Atividade de Cópia para saber como tirar partido das unidades de movimento de dados para otimizar o desempenho dos movimentos de dados.

Movimento de Dados entre arquivos de dados na Nuvem $- por hora
Movimento de Dados quando existe um arquivo no local $- por hora
Nota:
Poderá incorrer em custos de transferência de dados, os quais aparecerão como um item de linha de transferência de dados de saída separado na sua fatura. As cobranças de transferência de dados de saída aplicam-se quando os dados saem dos datacenters do Azure. Veja os Detalhes de Preços das Transferências de Dados para obter mais informações.

Pipelines Inativos

Tem de especificar um período de processamento de dados ativo com um intervalo de data/hora (horas de início e de fim) para cada pipeline que implemente no Azure Data Factory. O pipeline é considerado ativo durante o período especificado, mesmo que as respetivas atividades não estejam a ser executadas. É considerado inativo durante o restante tempo.

Um pipeline inativo é cobrado a $- por mês.

Os pipelines que estão inativos durante um mês completo são cobrados às taxas aplicáveis de "pipeline inativo" no final desse mês. Os pipelines que estão inativos durante uma parte do mês são cobrados pelos seus períodos inativos numa base rateada pelo número de horas em que estiveram inativos durante esse mês. Por exemplo, se a data e hora de início de um pipeline for 01/01/2016 às 00:00 e a data e hora de fim for 20/01/2016 às 00:00, o pipeline é considerado ativo durante esses 20 dias e inativo durante os 11 dias restantes. O custo do pipeline inativo ($-) é calculado em função de 11 dias.

Se um pipeline não tiver um período de processamento de dados ativo (uma hora de início e de fim) especificado, é considerado inativo.

Executar atividades novamente

As atividades podem ser executadas novamente, se necessário (por exemplo, se a origem de dados estava indisponível durante a execução agendada). O custo de voltar a executar atividades varia consoante o local onde as atividades são executadas. O custo de executar atividades novamente na cloud é de $- por 1 000 novas execuções. O custo de executar atividades novamente no local é de $- por 1 000 novas execuções.

Exemplo

Suponha que tem um pipeline de dados com as duas atividades seguintes que são executadas uma vez por dia (frequência baixa):

  1. Uma atividade de Cópia que copia dados de uma base de dados do SQL Server no local para um blob do Azure.
  2. Uma atividade do Hive que executa um script do Hive num cluster do Azure HDInsight.

Suponha que mover dados de uma base de dados do SQL Server no local para um armazenamento de blobs do Azure demora 2 horas num dia. A tabela seguinte mostra os custos associados a este pipeline:

Primeira atividade (copiar dados do local para o Azure)
Custo do Movimento de Dados (por mês) 30 dias por mês
2 horas por dia
$-
$-
Custo da Orquestração de Atividades (por mês) $-
Subtotal (por mês) $-
Segunda atividade (um script do Hive em execução no Azure HDInsight)
Custo do Movimento de Dados (por mês) $-
Custo da Orquestração de Atividades (por mês) $-
Subtotal (por mês) $-
Total de atividades (por mês) $-

Também pode utilizar a Calculadora de Preços do Data Factory para calcular os custos deste cenário.

Notas:

  • As primeiras cinco atividades na cloud e no local não são cobradas. Os custos mencionados acima partem do princípio de que já utilizou cinco atividades na cloud e cinco atividades no local por mês (noutros pipelines).
  • Os serviços do Armazenamento do Azure e do HDInsight são faturados separadamente de acordo com as respetivas por tarifas de serviço.

Preços e opções de compra do Azure

Entre em contacto direto connosco

Obtenha uma orientação dos preços do Azure. Compreenda os preços da sua solução cloud, saiba mais sobre a otimização de custos e solicite uma proposta personalizada.

Fale com um especialista em vendas

Veja as formas de compra

Compre serviços do Azure através do site do Azure, de um representante da Microsoft ou de um parceiro do Azure.

Explore as suas opções

Recursos adicionais

Azure Data Factory

Saiba mais sobre as funcionalidades e capacidades do Azure Data Factory.

Calculadora de preços

Faça uma estimativa dos seus custos mensais para utilizar qualquer combinação de produtos do Azure.

SLA

Reveja o Contrato de Nível de Serviço para Azure Data Factory.

Documentação

Reveja tutoriais técnicos, vídeos e mais Azure Data Factory recursos.

Azure Data Factory V2

  • As operações de leitura/escrita incluem a criação, leitura, atualização e eliminação de entidades do Azure Data Factory. As entidades incluem conjuntos de dados, serviços ligados, pipelines, runtime de integração e acionadores.
  • As operações de monitorização incluem a obtenção e listagem de execuções do pipeline, de atividades, de acionadores e de depuração.
  • Uma atividade é um passo num pipeline. A execução de cada atividade é denominada execução.
  • Um runtime de integração é a infraestrutura de computação que o Azure Data Factory utiliza para proporcionar as seguintes capacidades de integração de dados nos diferentes ambientes de rede:

    • Movimento de dados: transferência de dados entre arquivos de dados em redes públicas e privadas (no local ou virtuais), com suporte para conectores incorporados, conversão de formatos, mapeamento de colunas e transferência de dados eficiente e dimensionável.
    • Distribuição de atividades: distribuição e monitorização de atividades de transformação em execução num vasto leque de serviços de computação, como o Azure HDInsight, o Azure Machine Learning, a Base de Dados SQL do Azure, o SQL Server, entre outros.
    • Execução de pacotes do SQL Server Integration Services: execução nativa de pacotes do SQL Server Integration Services num ambiente de computação gerido do Azure.
  • Um acionador é uma unidade de processamento que determina o momento em que uma execução de pipeline tem de ser iniciada. Uma execução de acionador ocorre quando um acionador é executado, o que pode dar origem a uma execução de atividade se estiverem reunidas as condições necessárias.
  • Uma execução de depuração é uma execução de teste que um utilizador pode realizar durante o desenvolvimento iterativo para assegurar que os passos no pipeline estão a funcionar conforme suposto antes de as alterações serem publicadas no Data Factory.
  • Um pipeline inativo é aquele que não está associado a um acionador e que apresenta zero execuções no espaço de um mês. Está sujeito à aplicação de uma taxa após um mês sem execuções registadas.
  • As atividades de execução do pipeline (movimento de dados em runtime de integração do Azure, atividades de pipeline, movimento de dados em runtime de integração autoalojado e externo e atividades de pipeline externas) são cobradas de acordo com a taxa horária mostrada acima. Os custos da execução do pipeline são calculados proporcionalmente ao minuto e arredondados para cima.

    Por exemplo: se executar uma operação que demora 2 minutos e 20 segundos, ser-lhe-ão cobrados 3 minutos.

  • Pode encontrar exemplos de preços baseados em cenários na página de Documentação do Azure Data Factory.
  • Veja as diretrizes sobre como planear e gerir os custos do ADF na página Domínio do Azure Data Factory.

Azure Data Factory V1

  • As atividades definem as ações a realizar nos seus dados. Cada atividade utiliza zero ou mais conjuntos de dados como entradas e produz um ou mais conjuntos de dados como saída. Uma atividade é uma unidade de orquestração no Azure Data Factory.

    Por exemplo, pode utilizar uma atividade de Cópia para orquestrar a cópia de dados de um conjunto de dados para outro. Da mesma forma, pode utilizar uma atividade do Hive para executar uma consulta do Hive num cluster do Azure HDInsight para transformar ou analisar os seus dados. O Azure Data Factory fornece um vasto leque de atividades de transformação de dados e movimento de dados. Também pode optar por criar uma atividade .NET personalizada para executar o seu próprio código.

  • Um pipeline é um agrupamento lógico de atividades. Os pipelines podem estar ativos durante um período de tempo especificado pelo utilizador (horas de início e de fim). Os pipelines ficam inativos durante o restante tempo.
  • Sim. Se a Atividade utilizar os serviços do Azure, como o HDInsight, esses serviços são cobrados separadamente de acordo com as respetivas taxas de serviço.

  • Existem dois conjuntos de custos suportados quando efetua uma cópia de dados. Primeiro, os recursos de computação que são utilizados para efetuar a cópia são representados pelo medidor de movimento de dados. Existem versões na cloud e no local do medidor de movimento de dados, sendo que o movimento de dados no local é mais barato porque uma parte da computação associada à cópia é realizada pelos seus próprios recursos no local. Os custos do movimento de dados são calculados ao minuto e arredondados para cima. (Por exemplo, uma cópia de dados que demore 41 minutos e 23 segundos de tempo de computação resultará numa cobrança equivalente a 42 minutos).

    Além disso, poderá incorrer em custos de transferência de dados, os quais aparecerão como um item de linha de transferência de dados de saída separado na sua fatura. As cobranças de transferência de dados de saída aplicam-se quando os dados saem dos datacenters do Azure. Veja os Detalhes de Preços das Transferências de Dados para obter mais informações.

Fale com um especialista em vendas para obter uma descrição detalhada dos preços do Azure. Compreenda os preços da sua solução cloud.

Obtenha serviços cloud gratuitos e um crédito de $200 para explorar o Azure durante 30 dias.

Adicionar à estimativa. Prima \"v\" para ver na calculadora
Como podemos ajudá-lo?