Pular para o conteúdo principal

Preço do pipeline de dados

Integração de dados híbrida em escala empresarial facilitada

Explore uma variedade de funcionalidades de integração de dados de acordo com suas necessidades de escala, infraestrutura, compatibilidade, desempenho e orçamento – do SQL Server Integration Services gerenciado para migração contínua de projetos do SQL Server para a nuvem até pipelines de dados sem servidor em grande escala para integração de dados de todas as formas e todos os tamanhos.

Explorar as opções de preços

Aplique filtros para personalizar as opções de preço conforme as suas necessidades.

Os preços são apenas estimativas e não pretendem ser cotações de preços reais. O preço real pode variar dependendo do tipo de contrato celebrado com a Microsoft, data de compra e taxa de câmbio. Os preços são calculados com base em dólares americanos e convertidos usando as taxas spot de fechamento de Londres capturadas nos dois dias úteis anteriores ao último dia útil do final do mês anterior. Se os dois dias úteis anteriores ao final do mês caírem em um feriado bancário nos principais mercados, o dia de definição da taxa geralmente é o dia imediatamente anterior aos dois dias úteis. Esta taxa se aplica a todas as transações durante o próximo mês. Entre na calculadora de preços do Azure para ver os preços com base em seu programa/oferta atual com a Microsoft. Entre em contato com um especialista de vendas do Azure para obter mais informações sobre preços ou para solicitar uma cotação. Veja as perguntas frequentes sobre os preços do Azure.

O preço dos pipelines de dados é calculado com base no seguinte:

  • Orquestração e execução de pipeline
  • Execução de fluxo de dados e depuração
  • Número de operações do Data Factory, como criação e monitoramento de pipelines

Orquestração e execução de pipeline do Data Factory

Pipelines são fluxos de controle de etapas discretas chamadas de atividades. Você paga pela orquestração de pipeline de dados por execução de atividade e pela execução de atividade por horas de runtime de integração. O runtime de integração, que funciona sem servidor no Azure e é auto-hospedado em cenários híbridos, fornece os recursos de computação usados para execução das atividades em um pipeline. As cobranças referentes ao runtime de integração são divididas por minuto e arredondadas para cima.

Por exemplo, a atividade de cópia do Azure Data Factory pode mover dados entre vários armazenamentos de dados de maneira segura, confiável, com alto desempenho e escalonável. Conforme as necessidades de volume de dados ou taxa de transferência aumentam, o runtime de integração pode ser expandido para atendê-las.

Tipo Preço do Azure Integration Runtime Preço do Integration Runtime da VNET Gerenciada do Azure Preço do Runtime de Integração Auto-hospedada
Orquestração1 $- a cada 1.000 execuções $- a cada 1.000 execuções $- a cada 1.000 execuções
Atividade de movimentação de dados2 $-/DIU-hora $-/DIU-hora $-/hora
Atividade do pipeline3 $-/hora

$-/hora

(Até 50 atividades de pipeline simultâneas)

$-/hora

Atividade do pipeline externo4 $-/hora $-/hora

(Até 800 atividades de pipeline simultâneas)

$-/hora
1Orquestração refere-se a execuções de atividade, de gatilhos e de depuração.
2O uso da atividade de cópia para dados de saída de um datacenter do Azure incorrerá em encargos adicionais de largura de banda de rede, que serão exibidos como um item de linha de transferência de dados de saída separado na fatura. Saiba mais sobre o preço de transferência de dados de saída.
3As atividades de pipeline são executadas durante o runtime de integração. As atividades de pipeline incluem: pesquisa, obtenção de metadados, exclusão e operações de esquema durante a criação (teste de conexão, procura em lista de pastas e de tabelas, obtenção de esquema e visualização de dados).
4As atividades de pipeline externas são gerenciadas no runtime de integração, mas são executadas em serviços vinculados. As atividades externas incluem Databricks, procedimento armazenado, atividades do HDInsight, entre outras. Consulte aqui para obter uma lista completa de atividades externas. Para a atividade de Fluxo de dados de mapeamento, consulte a seção \"Execução e depuração de fluxo de dados do Data Factory\" abaixo.

Execução e Depuração do Fluxo de Dados

Os Fluxos de Dados são componentes projetados visualmente dentro do Data Factory que permitem transformações de dados em escala. Você paga pelo tempo de execução e depuração do cluster do Fluxo de Dados por hora de vCore. O tamanho mínimo do cluster para executar um Fluxo de Dados é 8 vCores. Os encargos de execução e depuração são rateados por minuto e arredondados. Os artefatos de Captura de Dados de Alterações são cobrados de acordo com taxas de Uso Geral para clusters de 4 vCores durante a versão prévia pública do CDC.

Objetos de Captura de Dados de Alterações (CDC) são executados na mesma infraestrutura de computação de fluxo de dados usando um computador de 4 vCores de nó único. O mesmo desconto sobre o preço da Instância Reservada do Fluxo de Dados também se aplica aos recursos de CDC.

Tipo Preço Reservadas por um ano
(% de economia)
Reservadas por três anos
(% de economia)
Propósito geral $- por vCore-hora $- por vCore-hora $- por vCore-hora
Memória Otimizada $- por vCore-hora $- por vCore-hora $- por vCore-hora

Observação: Os Fluxos de Dados do Data Factory também serão cobrados pelo armazenamento de disco gerenciado e de blobs necessários para a execução e a depuração do Fluxo de Dados.

Gerenciador de orquestração de fluxo de trabalho do Azure Data Factory

Tamanho Capacidade do Fluxo de Trabalho VCPU do Agendador vCPU de trabalho vCPU do Servidor Web Preço por hora
Pequeno (D2v4) Até 50 DAGs 2 2 2 $-
Grande (D4v4) Até 1.000 DAGs 4 4 4 $-

Nó adicional vCPU de trabalho Preço por hora
Pequeno (D2v4) 2 $-
Grande (D4v4) 4 $-

Operações do Data Factory

Tipo Preço Exemplos
Leitura/gravação* $- a cada 50.000 entidades modificadas/referenciadas Leitura/gravação de entidades no Azure Data Factory*
Monitoramento $- a cada 50.000 registros de execução recuperados Monitoramento de pipeline, atividade, gatilho e execuções de depuração**
* As operações de leitura/gravação para entidades do Azure Data Factory incluem criação, leitura, atualização e exclusão. As entidades incluem conjuntos de dados, serviços vinculados, pipelines, runtime de integração e gatilhos.
** As operações de monitoramento incluem obtenção e listagem para pipeline, atividade, gatilho e execuções de depuração.

O preço pelo uso do Data Factory é calculado com base nos seguintes fatores:

  • A frequência das atividades (alta ou baixa). Uma atividade de baixa frequência não é executada mais de uma vez por dia (por exemplo, diariamente, semanalmente, mensalmente); uma atividade de alta frequência é executada mais de uma vez por dia (por exemplo, a cada hora, a cada 15 minutos). Veja a seção Orquestração de atividades abaixo para obter detalhes.
  • Onde as atividades são executadas (na nuvem ou localmente). Veja a seção Movimentação de Dados abaixo.
  • Se um pipeline está ou não ativo. Veja a seção Pipelines Inativos abaixo.
  • Se você está executando novamente uma atividade. Veja a seção Executando atividades novamente abaixo.

Orquestração de atividades

Baixa frequência Alta frequência
Atividades em execução na nuvem

(exemplos: atividade de cópia movimentando dados de um blob do Azure para um Banco de Dados SQL do Azure; atividade de Hive executando um script Hive em um cluster do Azure HDInsight).
$- por atividade por mês $- por atividade por mês
Atividades executadas localmente e que envolvem o IR auto-hospedado

(exemplos: atividade de cópia movimentando dados de um banco de dados local do SQL Server para um blob do Azure; atividade de procedimento armazenado executando um procedimento armazenado em um banco de dados local do SQL Server).
$- por atividade por mês $- por atividade por mês

Observações:

  • O uso além de 100 atividades/mês receberá um desconto de 20% para cenários de baixa frequência e alta frequência.
  • As primeiras 5 atividades de baixa frequência em um mês são gratuitas em variantes locais e na nuvem.

Movimentação de Dados

O Azure Data Factory pode copiar dados entre vários repositórios de dados de forma segura, confiável, produtiva e escalonável. Conforme suas necessidades de volume de dados ou de taxa de rendimento de movimentos de dados crescem, o Azure Data Factory pode escalar horizontalmente para atender essas necessidades. Consulte o Guia de Desempenho da Atividade de Cópia para saber como aproveitar unidades de movimentação de dados para impulsionar o desempenho da movimentação de dados.

Movimentação de Dados entre repositórios de dados de nuvem $- por hora
Movimentação de Dados quando um repositório local está envolvido $- por hora
Observação:
Poderão incorrer custos de transferência de dados que aparecerão como um item de linha de transferência de dados de saída separado em sua conta. Cobranças de transferência de dados de saída são aplicadas quando os dados saem de data centers do Azure. Veja Detalhes de Preços de Transferências de Dados para obter mais informações.

Pipelines Inativos

Você deve especificar um período ativo de processamento de dados usando um intervalo de data/hora (horas de início e fim) para cada pipeline implantado no Azure Data Factory. O pipeline é considerado ativo durante o período especificado mesmo que as suas atividades não estejam realmente em execução. Ele é considerado inativo em todos os outros momentos.

Um pipeline inativo é cobrado a $- por mês.

Pipelines inativos por um mês inteiro são cobrados na taxa de “pipeline inativo” aplicável ao mês. Pipelines inativos por uma parte do mês são cobrados pelos períodos de inatividade em uma base rateada pelo número de horas em que estiveram inativos no mês. Por exemplo, se um pipeline tiver data e hora iniciais de 01/01/2016 às 0h e data e hora de término de 20/01/2016 às 0h, o pipeline será considerado ativo durante esses 20 dias e inativo por 11 dias. A cobrança pelo pipeline inativo ($-) é rateada por 11 dias.

Se um pipeline não tiver um período ativo de processamento de dados especificado (uma hora de início e uma de término), ele será considerado inativo.

Executando atividades novamente

Se necessário, as atividades poderão ser executadas novamente (por exemplo, se a fonte de dados não estiver disponível durante a execução agendada). O custo da nova execução das atividades varia de acordo com o local de execução da atividade. O custo de executar atividades novamente na nuvem é $- a cada 1.000 novas execuções. O custo de executar atividades locais novamente é $- a cada 1.000 novas execuções.

Exemplo

Suponha que você tem um pipeline de dados com as duas atividades a seguir, sendo executadas uma vez por dia (baixa frequência):

  1. Uma atividade de cópia que copia os dados de um banco de dados do SQL Server local para um blob do Azure.
  2. Uma atividade Hive que executa um script Hive em um cluster do Azure HDInsight.

Presuma que leve 2 horas em um determinado dia para mover dados de um banco de dados do SQL Server local para um armazenamento de blobs do Azure. A tabela a seguir mostra os custos associados a esse pipeline:

Primeira atividade (copiar dados do local para o Azure)
Custo de Movimentação de Dados (por mês) 30 dias por mês
2 horas por dia
$-
$-
Custo da orquestração de atividades (por mês) $-
Subtotal (por mês) $-
Segunda atividade (um script Hive em execução no Azure HDInsight)
Custo de Movimentação de Dados (por mês) $-
Custo da orquestração de atividades (por mês) $-
Subtotal (por mês) $-
Total de atividades (por mês) $-

Você também pode usar Calculadora de Preços do Data Factory para calcular encargos para esse cenário.

Observações:

  • Não há nenum custo para as cinco primeiras atividades locais e na nuvem. Os encargos mencionados acima pressupõem que você já usou cinco atividades locais e de nuvem por mês (em outros pipelines).
  • O Armazenamento do Azure e os serviços HDInsight são cobrados separadamente em suas taxas de serviço.

Opções de compra e preços do Azure

Conecte-se diretamente conosco

Obtenha uma explicação detalhada sobre os preços do Azure. Entenda os preços da sua solução de nuvem, aprenda sobre a otimização de custos e solicite uma proposta personalizada.

Converse com um especialista de vendas

Confira maneiras de comprar

Compre os serviços do Azure por meio do site do Azure, de um representante da Microsoft ou de um parceiro do Azure.

Explore suas opções

Recursos adicionais

Azure Data Factory

Saiba mais sobre os recursos e as funcionalidades do Azure Data Factory.

Calculadora de preço

Estime seus custos mensais esperados para usar qualquer combinação de produtos do Azure.

SLA

Revise o Contrato de Nível de Serviço para Azure Data Factory.

Documentação

Consulte tutoriais técnicos, vídeos e outros recursos do Azure Data Factory.

Azure Data Factory V2

  • As operações de leitura/gravação incluem criação, leitura, atualização e exclusão de entidades do Azure Data Factory. As entidades incluem conjuntos de dados, serviços vinculados, pipelines, runtime de integração e gatilhos.
  • As operações de monitoramento incluem obtenção e listagem para pipeline, atividade, gatilho e execuções de depuração.
  • Uma atividade é uma etapa em um pipeline. A realização de cada atividade é chamada de execução.
  • Um runtime de integração é a infraestrutura de computação usada pelo Azure Data Factory para fornecer as seguintes funcionalidades de integração de dados entre diferentes ambientes de rede:

    • Movimentação de dados: Transferência de dados entre armazenamentos de dados em redes públicas e privadas (locais ou privadas virtuais), fornecendo suporte para conectores internos, conversão de formato, mapeamento de coluna e transferência de dados escalonável e de alto desempenho.
    • Expedição de atividade: Expedição e monitoramento de atividades de transformação executadas em uma variedade de serviços de computação, como Azure HDInsight, Azure Machine Learning, Banco de Dados SQL do Azure, SQL Server e outros.
    • Execução do pacote SQL Server Integration Services: Execução nativa de pacotes de serviço de integração do SQL Server em um ambiente de computação gerenciada do Azure.
  • Um gatilho é uma unidade de processamento que determina quando uma execução de pipeline precisa ser iniciada. Uma execução de gatilho é a execução de um gatilho, que poderá produzir uma execução de atividade se as condições forem atendidas.
  • Uma execução de depuração é uma execução de teste que um usuário pode executar durante o desenvolvimento iterativo para garantir que as etapas no pipeline estejam funcionando conforme o esperado antes que as alterações sejam publicadas no data factory.
  • Um pipeline inativo é aquele que não está associado a um gatilho e que tem zero execuções em um mês. Um encargo é incorrido após um mês de zero execuções.
  • As atividades de execução de pipeline (movimentação de dados do Azure Integration Runtime, atividades de pipeline, movimentação de dados de tempo de execução da integração auto-hospedada e externa) são cobradas na taxa horária mostrada acima. As cobranças referentes a execução de pipeline são divididas por minuto e arredondadas para cima até o inteiro mais próximo.

    Por exemplo: Se você executar uma operação que leve dois minutos e 20 segundos, você será cobrado por três minutos.

  • Encontre exemplos de preços baseados em cenários na página Documentação do Azure Data Factory.
  • Confira diretrizes sobre como planejar e gerenciar os custos do ADF na página de Dominação do Azure Data Factory.

Azure Data Factory V1

  • As atividades definem as ações a realizar para seus dados. Cada atividade requer zero ou mais conjuntos de dados como entradas e produz um ou mais conjuntos de dados como saída. Uma atividade é uma unidade de orquestração no Azure Data Factory.

    Por exemplo, você pode usar uma Atividade de cópia para orquestrar a cópia de dados de um conjunto de dados para outro. De maneira similar, você pode usar uma atividade Hive para executar uma consulta de Hive em um cluster do Azure HDInsight para transformar ou analisar seus dados. O Azure Data Factory fornece uma ampla gama de atividades de transformação e movimentação de dados. Você também pode optar por criar uma atividade .NET personalizada para executar seu próprio código.

  • Um pipeline é um agrupamento lógico de atividades. Pipelines podem ficar ativos por um período de tempo especificado pelo usuário (horas de início e de término). Pipelines ficam inativos em todos os outros momentos.
  • Sim. Se a Atividade usar serviços do Azure como o HDInsight, tais serviços serão cobrados separadamente de acordo com as tarifas por serviço.

  • Há dois conjuntos de custos decorrentes da realização de uma cópia de dados. Primeiramente, os recursos de computação que são usados para a realização da cópia são representados pelo medidor de movimentação de dados. Existem versões dos medidores de movimentação de dados em nuvem e locais, e a movimentação local é mais barata porque uma parte da computação associada à cópia é executada pelos seus próprios recursos locais. Cobranças referentes a movimentações de dados são rateadas por minuto e arredondadas. (Por exemplo, uma cópia de dados que leva 41 minutos e 23 segundos de tempo de computação resultará em uma cobrança por 42 minutos).

    Em segundo lugar, poderão incorrer custos de transferência de dados que aparecerão como um item de linha de transferência de dados de saída separado em sua conta. Cobranças de transferência de dados de saída são aplicadas quando os dados saem de data centers do Azure. Veja Detalhes de Preços de Transferências de Dados para obter mais informações.

Converse com um especialista em vendas para saber mais sobre os preços do Azure. Entenda os preços da sua solução de nuvem.

Obtenha serviços de nuvem gratuitos e um crédito de $200 para explorar o Azure por 30 dias.

Adicionado à estimativa. Pressione ‘v’ para exibir na calculadora
Podemos ajudar você?