Przejdź do głównej zawartości
Azure

Ceny potoków danych

Prosta integracja danych hybrydowych na skalę przedsiębiorstwa

Zapoznaj się z szeregiem możliwości integracji danych, aby znaleźć takie, które spełnią Twoje potrzeby w zakresie skali, infrastruktury, zgodności, wydajności i budżetu — od zarządzanych usług SQL Server Integration Services na potrzeby bezproblemowej migracji projektów programu SQL Server do chmury aż po wielkoskalowe, bezserwerowe potoki danych na potrzeby integracji danych wszelkich kształtów i rozmiarów.

Eksplorowanie opcji cennika

Zastosuj filtry, aby dostosować opcje cennika do własnych potrzeb.

Ceny są jedynie szacunkowe i nie stanowią rzeczywistych ofert cenowych. Rzeczywiste ceny mogą się różnić w zależności od typu umowy zawartej z firmą Microsoft, daty zakupu i kursu wymiany walut. Ceny są obliczane na podstawie kursu dolara amerykańskiego i przeliczane przy użyciu londyńskich kursów zamknięcia typu spot z dwóch dni roboczych przed ostatnim dniem roboczym końca poprzedniego miesiąca. Jeżeli dwa dni robocze poprzedzające koniec miesiąca przypadają na dni świąteczne na głównych rynkach, dniem ustalenia kursu jest zazwyczaj dzień bezpośrednio poprzedzający te dwa dni robocze. Ten kurs dotyczy wszystkich transakcji w nadchodzącym miesiącu. Zaloguj się do kalkulatora cen platformy Azure, aby zobaczyć ceny na podstawie bieżącego programu/oferty firmy Microsoft. Skontaktuj się ze specjalistą ds. sprzedaży platformy Azure, aby uzyskać więcej informacji na temat cen lub poprosić o wycenę. Zobacz często zadawane pytania dotyczące cen platformy Azure.

Ceny za potoki danych są obliczane na podstawie następujących czynników:

  • Aranżacja i wykonanie potoku
  • Wykonywanie i debugowanie przepływu danych
  • Liczba operacji usługi Data Factory, takich jak tworzenie i monitorowanie potoków

Aranżacja i wykonanie potoku usługi Data Factory

Potoki to kontrolowane przepływy złożone z osobnych kroków określanych jako działania. Płacisz za aranżację potoków danych według uruchomień działań i wykonywanie działań według godzin środowiska Integration Runtime. Środowisko Integration Runtime, które jest środowiskiem bezserwerowym na platformie Azure i środowiskiem własnym w scenariuszach hybrydowych, zapewnia zasoby obliczeniowe używane do wykonywania działań w potoku. Opłaty za środowisko Integration Runtime są naliczane proporcjonalnie do liczby minut i zaokrąglane w górę.

Na przykład działanie kopiowania w usłudze Azure Data Factory pozwala bezpiecznie, niezawodnie i wydajnie przenosić dane między różnymi magazynami danych z możliwością skalowania. Wraz ze wzrostem wolumenu danych lub zapotrzebowania na przepływność można skalować środowisko Integration Runtime w poziomie w celu spełnienia tych potrzeb.

Typ Cennik usługi Azure Integration Runtime Cennik środowiska Integration Runtime zarządzanej sieci wirtualnej hostowanej na platformie Azure Cennik własnego środowiska Integration Runtime
Aranżacja1 $- na 1 000 przebiegów $- na 1 000 przebiegów $- na 1 000 przebiegów
Działania związane z przenoszeniem danych2 $-/DIU na godzinę $-/DIU na godzinę $-/godz.
Działanie potoku3 $-/godz. $-/godz.
(Do 50 współbieżnych działań potoku)
$-/godz.
Zewnętrzne działanie potoku4 $-/godz. $-/godz.
(Do 800 współbieżnych działań potoku)
$-/godz.
1Orkiestracja odnosi się do przebiegów działań, wykonywania wyzwalaczy i przebiegów debugowania.
2Korzystanie z działania kopiowania do wyprowadzenia danych z centrum danych platformy Azure spowoduje naliczenie dodatkowych opłat za przepustowość sieci, które zostaną przedstawione w osobnym wierszu rachunku zawierającym koszt wychodzącego transferu danych. Dowiedz się więcej o cenach transferu danych wychodzących.
3Działania potoków są wykonywane w środowisku Integration Runtime. Działania potoków obejmują wyszukiwanie, pobieranie metadanych, usuwanie i operacje schematów podczas tworzenia (testowanie połączenia, przeglądanie listy folderów i tabel, pobieranie schematu oraz wyświetlanie podglądu danych).
4Zewnętrzne działania potoków są zarządzane w środowisku Integration Runtime, ale są wykonywane w połączonych usługach. Działania zewnętrzne obejmują usługę Databricks, procedury składowane, działania usługi HDInsight i wiele innych. Pełną listę zewnętrznych działań możesz znaleźć tutaj. W przypadku działania Przepływ danych mapowania zapoznaj się z poniższą sekcją „Wykonywanie i debugowanie przepływu danych usługi Data Factory”.

Wykonywanie i debugowanie przepływu danych

Przepływy danych to wizualnie zaprojektowane składniki wewnątrz usługi Data Factory, które umożliwiają przekształcanie danych na dużą skalę. Płacisz za czas wykonywania i debugowania klastra przepływu danych za godzinę pracy rdzenia wirtualnego. Minimalny rozmiar klastra do uruchomienia przepływu danych to 8 rdzeni wirtualnych. Opłaty z tytułu wykonania i debugowania są naliczane proporcjonalnie do minuty i zaokrąglane w górę. Artefakty przechwytywania zmian danych są rozliczane według stawek ogólnego przeznaczenia dla klastrów dla 4 rdzeni wirtualnych podczas używana publicznej wersji zapoznawczej przechwytywania zmian danych.

Obiekty przechwytywania zmian danych są wykonywane w tej samej infrastrukturze obliczeniowej przepływu danych przy użyciu jednowęzłowej maszyny wirtualnej z 4 rdzeniami wirtualnymi. Ten sam rabat cenowy dla wystąpienia zarezerwowanego przepływu danych dotyczy również zasobów przechwytywania zmian danych.

Typ Cena Rezerwacja na rok
(% oszczędności)
Rezerwacja na trzy lata
(% oszczędności)
Ogólne zastosowanie $-/rdzeń wirtualny na godzinę $-/rdzeń wirtualny na godzinę $-/rdzeń wirtualny na godzinę
Pamięć $-/rdzeń wirtualny na godzinę $-/rdzeń wirtualny na godzinę $-/rdzeń wirtualny na godzinę

Uwaga: Opłaty za przepływy danych usługi Data Factory będą również naliczane za magazyn zarządzany, magazyn dysków i magazyn obiektów blob wymagany na potrzeby wykonywania i debugowania przepływu danych.

Menedżer orkiestracji przepływu pracy usługi Azure Data Factory

Rozmiar Pojemność przepływu pracy Procesor wirtualny usługi Scheduler Procesor wirtualny procesu roboczego Procesor wirtualny serwera internetowego Cena za godzinę
Mały (D2v4) Do 50 skierowanych grafów acyklicznych 2 2 2 $-
Duży (D4v4) Do 1 000 skierowanych grafów acyklicznych 4 4 4 $-

Dodatkowy węzeł Procesor wirtualny procesu roboczego Cena za godzinę
Mały (D2v4) 2 $-
Duży (D4v4) 4 $-

Operacje usługi Data Factory

Typ Cena Przykłady
Odczyt/zapis* $- na 50 000 zmodyfikowanych/wskazywanych jednostek Odczyt/zapis jednostek w usłudze Azure Data Factory*
Monitorowanie $- na 50 000 pobranych rekordów przebiegów Monitorowanie potoków oraz przebiegów debugowania i wyzwalaczy, a także uruchomień działań**
* Operacje odczytu/zapisu dla jednostek usługi Azure Data Factory obejmują tworzenie, odczytywanie, aktualizowanie i usuwanie. Jednostki obejmują zestawy danych, połączone usługi, potoki, środowisko Integration Runtime i wyzwalacze.
** Operacje monitorowania obejmują pobieranie i tworzenie list potoków oraz przebiegów debugowania i wyzwalaczy, a także uruchomień działań.

Ceny za użycie usługi Data Factory są obliczane na podstawie następujących czynników:

  • Częstotliwość działań (wysoka lub niska). Działanie o niskiej częstotliwości nie jest wykonywane częściej niż raz dziennie (np. codziennie, co tydzień, co miesiąc); działanie o wysokiej częstotliwości jest wykonywane częściej niż raz dziennie (np. co godzinę, co 15 min). Aby uzyskać szczegóły, zobacz poniższą sekcję Organizowanie działań.
  • Miejsce uruchamiania działań (chmura lub środowisko lokalne). Zobacz poniższą sekcją Przenoszenie danych.
  • Stan aktywności potoku. Zobacz poniższą sekcję Nieaktywne potoki.
  • Działanie jest uruchamiane ponownie. Zobacz poniższą sekcję Ponowne uruchamianie działań.

Organizowanie działań

Niska częstotliwość Wysoka częstotliwość
Działania uruchomione w chmurze

(przykłady: działanie kopiowania, które przenosi dane z obiektu blob platformy Azure do bazy danych Azure SQL Database; działanie technologii Hive uruchamiające skrypt Hive w klastrze usługi Azure HDInsight).
$- za działanie miesięcznie $- za działanie miesięcznie
Działania uruchamiane lokalnie i uwzględniające własne środowisko IR

(przykłady: działanie kopiowania, które przenosi dane z lokalnej bazy danych programu SQL Server do obiektu blob platformy Azure; działanie procedury składowanej uruchamiające procedurę składowaną w lokalnej bazie danych programu SQL Server).
$- za działanie miesięcznie $- za działanie miesięcznie

Uwaga:

  • Użycie ponad 100 działań na miesiąc sprawi, że otrzymasz rabat w wysokości 20% dla scenariuszy o niskiej częstotliwości i wysokiej częstotliwości.
  • Pierwsze (5) działania o niskiej częstotliwości w miesiącu są bezpłatne zarówno w chmurze, jak i lokalnie.

Przenoszenie danych

Usługa Azure Data Factory pozwala bezpiecznie, niezawodnie i wydajnie kopiować dane między różnymi magazynami z możliwością skalowania. W miarę wzrostu ilości danych lub wymaganej przepływności usługę Azure Data Factory można odpowiednio przeskalować. Zapoznaj się z przewodnikiem dotyczącym wydajności działania kopiowania, aby uzyskać informacje na temat zwiększania wydajności przenoszenia danych przy użyciu jednostek przenoszenia danych.

Przenoszenie danych między magazynami danych w chmurze $- za godzinę
Przenoszenie danych w przypadku korzystania z magazynu lokalnego $- za godzinę
Uwaga:
Mogą być naliczane opłaty za transfer danych, które zostaną przedstawione w osobnym wierszu rachunku zawierającym koszt wychodzącego transferu danych. Opłaty za wychodzący transfer danych są naliczane w przypadku przesłania danych poza centra danych platformy Azure. Aby uzyskać więcej informacji, zobacz szczegóły cennika transferów danych.

Potoki nieaktywne

Dla każdego potoku wdrożonego w usłudze Azure Data Factory musisz określić aktywny okres przetwarzania danych przy użyciu zakresu dat/godzin (czasu rozpoczęcia i zakończenia). Potok jest uznawany za aktywny w wybranym okresie, nawet jeśli działania nie są faktycznie wykonywane. W pozostałych przypadkach jest uważany za nieaktywny.

Opłata za nieaktywny potok wynosi $- miesięcznie.

Potoki, które są nieaktywne przez cały miesiąc, są rozliczane według obowiązującej stawki dla „nieaktywnych potoków” za dany miesiąc. Potoki, które są nieaktywne przez część miesiąca, są rozliczane za okresy nieaktywności proporcjonalnie do liczby godzin nieaktywności w danym miesiącu. Na przykład, jeśli potok ma datę i godzinę rozpoczęcia 1 stycznia 2016 r. o godz. 12:00 oraz datę i godzinę zakończenia 20 stycznia 2016 r. o godz. 12:00, potok jest uważany za aktywny przez te 20 dni i nieaktywny przez 11 dni. Opłata za nieaktywny potok ($-) jest naliczana proporcjonalnie przez 11 dni.

Jeśli potok nie ma określonego aktywnego okresu przetwarzania danych (czasu rozpoczęcia i zakończenia), jest uważany za nieaktywny.

Ponowne uruchamianie działań

Działania można w razie potrzeby uruchamiać ponownie (np. jeśli źródło danych było niedostępne podczas zaplanowanego uruchamiania). Koszt ponownego uruchamiania działań różni się w zależności od lokalizacji, w której działanie jest uruchamiane. Koszt ponownego uruchamiania działań w chmurze to $- na 1 000 operacji ponownego uruchomienia. Koszt ponownego uruchamiania działań lokalnie to $- na 1 000 operacji ponownego uruchomienia.

Przykład

Masz potok danych z dwoma następującymi działaniami uruchamianymi raz dziennie (niska częstotliwość):

  1. Działanie kopiowania, które kopiuje dane z lokalnej bazy danych programu SQL Server do obiektu blob platformy Azure.
  2. Działanie technologii Hive, które uruchamia skrypt Hive w klastrze usługi Azure HDInsight.

Przenoszenie danych z lokalnej bazy danych programu SQL Server do usługi Azure Blob Storage trwa 2 godz. w ciągu dnia. W poniższej tabeli przedstawiono koszty związane z potokiem:

Pierwsze działanie (kopiowanie danych ze środowiska lokalnego do platformy Azure)
Koszt przenoszenia danych (miesięcznie) 30 dni miesięcznie
2 godz. dziennie
$-
$-
Koszt orkiestracji działań (miesięcznie) $-
Suma częściowa (miesięcznie) $-
Drugie działanie (skrypt Hive uruchomiony w usłudze Azure HDInsight)
Koszt przenoszenia danych (miesięcznie) $-
Koszt orkiestracji działań (miesięcznie) $-
Suma częściowa (miesięcznie) $-
Łączna liczba działań (miesięcznie) $-

Możesz także użyć kalkulatora cen usługi Data Factory, aby obliczyć koszta tego scenariusza.

Uwagi:

  • Pierwsze pięć działań w chmurze i działań lokalnych jest bezpłatne. Powyższe opłaty zakładają, że wykorzystano już pięć działań w chmurze i pięć działań lokalnych miesięcznie (w innych potokach).
  • Usługi Azure Storage i HDInsight są rozliczane osobno według stawek za usługę.

Opcje cen i zakupu platformy Azure

Skontaktuj się z nami bezpośrednio

Zapoznaj się z przewodnikiem dotyczącym cen platformy Azure. Poznaj ceny rozwiązania w chmurze, dowiedz się więcej o optymalizacji kosztów i poproś o ofertę niestandardową.

Rozmowa ze specjalistą ds. sprzedaży

Zobacz sposoby zakupu

Kup usługi platformy Azure za pośrednictwem witryny internetowej platformy Azure, przedstawiciela firmy Microsoft lub partnera platformy Azure.

Poznaj swoje opcje

Dodatkowe zasoby

Azure Data Factory

Dowiedz się więcej o funkcjach i możliwościach produktu Azure Data Factory.

Kalkulator cen

Oszacuj oczekiwane miesięczne koszty używania dowolnej kombinacji produktów platformy Azure.

Umowa SLA

Przejrzyj Umowę dotyczącą poziomu usług dla produktu Azure Data Factory.

Dokumentacja

Przejrzyj samouczki techniczne, materiały wideo i inne zasoby dotyczące produktu Azure Data Factory.

Azure Data Factory V2

  • Operacje odczytu/zapisu obejmują tworzenie, odczytywanie, aktualizowanie i usuwanie jednostek usługi Azure Data Factory. Jednostki obejmują zestawy danych, połączone usługi, potoki, środowisko Integration Runtime i wyzwalacze.
  • Operacje monitorowania obejmują pobieranie i tworzenie list potoków oraz przebiegów debugowania i wyzwalaczy, a także uruchomień działań.
  • Działanie to krok w ramach potoku. Wykonanie każdego działania nazywamy uruchomieniem.
  • Integration Runtime (IR) to infrastruktura obliczeniowa używana przez usługę Azure Data Factory do zapewnienia następujących możliwości integracji danych w różnych środowiskach sieciowych:

    • Przenoszenie danych: Przesyłanie danych między magazynami danych w sieciach publicznych i prywatnych (lokalnych lub wirtualnych) z obsługą wbudowanych łączników, konwersji formatów, mapowania kolumn oraz wydajnego i skalowalnego transferu danych.
    • Wysyłanie działań: Wysyłanie i monitorowanie działań przekształcania uruchamianych w różnych usługach obliczeniowych, takich jak Azure HDInsight, Azure Machine Learning, Azure SQL Database, SQL Server i nie tylko.
    • Wykonywanie pakietów usług SQL Server Integration Services: Natywne wykonywanie pakietów SQL Server Integration Services w zarządzanym środowisku obliczeniowym platformy Azure.
  • Wyzwalacz to jednostka przetwarzania, która określa, kiedy należy rozpocząć wykonanie potoku. Przebieg wyzwalacza to wykonanie wyzwalacza, które może skutkować uruchomieniem działania, jeśli są spełnione warunki.
  • Przebieg debugowania to przebieg testu, który użytkownik może wykonać w ramach programowania przyrostowego, aby upewnić się, że kroki w potoku działają zgodnie z zamierzeniami, zanim zmiany zostaną opublikowane w fabryce danych.
  • Nieaktywny potok to taki, który nie jest powiązany z wyzwalaczem i w ciągu miesiąca nie wykonywano dla niego przebiegów. Opłata jest naliczana po upływie jednego miesiąca bez przebiegów.
  • Za działania wykonywania potoku (przenoszenie danych środowiska Azure Integration Runtime, działania potoku, przenoszenie danych zewnętrznych i własnego środowiska Integration Runtime) jest naliczana stawka godzinowa pokazana powyżej. Opłaty za wykonywanie potoku są naliczane proporcjonalnie do liczby minut i zaokrąglane w górę.

    Na przykład: Jeśli uruchomisz operację, która trwa 2 minuty i 20 sekund, zostaną naliczone opłaty za 3 minuty.

  • Przykłady cen oparte na scenariuszach można znaleźć na stronie dokumentacji usługi Azure Data Factory.
  • Zapoznaj się ze wskazówkami dotyczącymi planowania kosztów usługi ADF i zarządzania nimi na stronie Dominacja usługi Azure Data Factory.

Azure Data Factory V1

  • Działania określają akcje dotyczące danych do wykonania. Każde działanie może używać zestawów danych jako danych wejściowych i tworzy zestawy danych jako dane wyjściowe. Działanie jest jednostką organizowania w usłudze Azure Data Factory.

    Na przykład działanie kopiowania umożliwia organizowanie kopiowania danych między zestawami danych. Podobnie można uruchomić zapytanie technologii Hive w klastrze usługi Azure HDInsight przy użyciu działania technologii Hive w celu przekształcenia lub przeanalizowania danych. Usługa Azure Data Factory oferuje wiele działań przekształceń danych i przenoszenia danych . Możesz też utworzyć niestandardowe działanie platformy .NET, aby uruchomić własny kod.

  • Potok to logiczna grupa działań. Potoki mogą być aktywne w okresie zdefiniowanym przez użytkownika (czas rozpoczęcia i zakończenia). Potoki są nieaktywne w pozostałym czasie.
  • Tak. Jeśli działanie korzysta z usług platformy Azure, takich jak HDInsight, te usługi są rozliczane osobno zgodnie ze stawkami za daną usługę.

  • W przypadku wykonywania kopii danych naliczane są dwa rodzaje kosztów. Po pierwsze zasoby obliczeniowe używane na potrzeby wykonania kopii są reprezentowane przez wielkość pomiaru przenoszenia danych. Pomiar przenoszenia danych ma wersję w chmurze i wersję lokalną. Przenoszenie danych lokalnie jest tańsze, ponieważ część obliczeń skojarzonych z kopią jest wykonywana przez własne zasoby lokalne. Opłaty za przenoszenie danych są naliczane proporcjonalnie do liczby minut i zaokrąglane w górę. Na przykład w przypadku kopiowania danych trwającego 41 minut 23 sekundy czasu obliczeń zostanie naliczona opłata za 42 minuty.

    Ponadto mogą być też naliczane opłaty za transfer danych, które zostaną przedstawione w osobnym wierszu rachunku zawierającym koszt wychodzącego transferu danych. Opłaty za wychodzący transfer danych są naliczane w przypadku przesłania danych poza centra danych platformy Azure. Aby uzyskać więcej informacji, zobacz szczegóły cennika transferów danych.

Porozmawiaj ze specjalistą ds. sprzedaży, który przedstawi Ci cennik platformy Azure. Zapoznaj się z informacjami o cenach swojego rozwiązania w chmurze.

Uzyskaj bezpłatne usługi online i $200 środków na eksplorowanie platformy Azure przez 30 dni.

Dodano do oszacowania. Naciśnij klawisz „v”, aby wyświetlić w kalkulatorze