Ceny potoków danych

Szczegóły cennika

Azure Data Factory: Ceny potoków danych

Ceny za potoki danych są obliczane na podstawie następujących czynników:

  • Aranżacja i wykonanie potoku
  • Wykonywanie i debugowanie przepływu danych
  • Liczba operacji usługi Data Factory, takich jak tworzenie i monitorowanie potoków

Aranżacja i wykonanie potoku usługi Data Factory

Potoki to kontrolowane przepływy złożone z osobnych kroków określanych jako działania. Płacisz za aranżację potoków danych według uruchomień działań i wykonywanie działań według godzin środowiska Integration Runtime. Środowisko Integration Runtime, które jest środowiskiem bezserwerowym na platformie Azure i środowiskiem własnym w scenariuszach hybrydowych, zapewnia zasoby obliczeniowe używane do wykonywania działań w potoku. Opłaty za środowisko Integration Runtime są naliczane proporcjonalnie do liczby minut i zaokrąglane w górę.

Na przykład działanie kopiowania w usłudze Azure Data Factory pozwala bezpiecznie, niezawodnie i wydajnie przenosić dane między różnymi magazynami danych z możliwością skalowania. Wraz ze wzrostem wolumenu danych lub zapotrzebowania na przepływność można skalować środowisko Integration Runtime w poziomie w celu spełnienia tych potrzeb.

Typ Cennik usługi Azure Integration Runtime Cennik środowiska Integration Runtime zarządzanej sieci wirtualnej hostowanej na platformie Azure Cennik własnego środowiska Integration Runtime
Aranżacja1 $- na 1 000 przebiegów $- na 1 000 przebiegów $- na 1 000 przebiegów
Działania związane z przenoszeniem danych2 $-/DIU na godzinę $-/DIU na godzinę $-/godz.
Działanie potoku3 $-/godz.

$-/godz.

(Do 50 współbieżnych działań potoku)

$-/godz.

Zewnętrzne działanie potoku4 $-/godz. $-/godz.

(Do 800 współbieżnych działań potoku)

$-/godz.
  1. Orkiestracja odnosi się do przebiegów działań, wykonywania wyzwalaczy i przebiegów debugowania.
  2. Korzystanie z działania kopiowania do wyprowadzenia danych z centrum danych platformy Azure spowoduje naliczenie dodatkowych opłat za przepustowość sieci, które zostaną przedstawione w osobnym wierszu rachunku zawierającym koszt wychodzącego transferu danych. Dowiedz się więcej o cenach transferu danych wychodzących.
  3. Działania potoków są wykonywane w środowisku Integration Runtime. Działania potoków obejmują wyszukiwanie, pobieranie metadanych, usuwanie i operacje schematów podczas tworzenia (testowanie połączenia, przeglądanie listy folderów i tabel, pobieranie schematu oraz wyświetlanie podglądu danych).
  4. Zewnętrzne działania potoków są zarządzane w środowisku Integration Runtime, ale są wykonywane w połączonych usługach. Działania zewnętrzne obejmują usługę Databricks, procedury składowane, działania usługi HDInsight i wiele innych. Pełną listę zewnętrznych działań możesz znaleźć tutaj. W przypadku działania Przepływ danych mapowania zapoznaj się z poniższą sekcją „Wykonywanie i debugowanie przepływu danych usługi Data Factory”.

Wykonywanie i debugowanie przepływu danych

Przepływy danych to graficznie zaprojektowane składniki usługi Data Factory, które umożliwiają przekształcanie danych w dużej skali. Opłaty za czas wykonywania i debugowania klastra przepływu danych są naliczane za godzinę korzystania z rdzenia wirtualnego. Minimalny rozmiar klastra umożliwiający uruchomienie przepływu danych to 8 rdzeni wirtualnych. Opłaty za wykonywanie i debugowanie są naliczane proporcjonalnie do liczby minut i zaokrąglane w górę.

Typ Cena
Obliczenia $-/rdzeń wirtualny na godzinę
Ogólne zastosowanie $-/rdzeń wirtualny na godzinę
Pamięć $-/rdzeń wirtualny na godzinę

Uwaga: Opłaty za przepływy danych usługi Data Factory będą również naliczane za magazyn zarządzany, magazyn dysków i magazyn obiektów blob wymagany na potrzeby wykonywania i debugowania przepływu danych. Ponadto, w czasie gdy funkcja przepływu uzdatniania danych jest w publicznej wersji zapoznawczej, korzystanie z funkcji zostanie obniżone o 50% od cen wymienionych w powyższej tabeli.

Operacje usługi Data Factory

Typ Cena Przykłady
Odczyt/zapis* $- na 50 000 zmodyfikowanych/wskazywanych jednostek Odczyt/zapis jednostek w usłudze Azure Data Factory*
Monitorowanie $- na 50 000 pobranych rekordów przebiegów Monitorowanie potoków oraz przebiegów debugowania i wyzwalaczy, a także uruchomień działań**

* Operacje odczytu/zapisu dla jednostek usługi Azure Data Factory obejmują tworzenie, odczytywanie, aktualizowanie i usuwanie. Jednostki obejmują zestawy danych, połączone usługi, potoki, środowisko Integration Runtime i wyzwalacze.

** Operacje monitorowania obejmują pobieranie i tworzenie list potoków oraz przebiegów debugowania i wyzwalaczy, a także uruchomień działań.

Nieaktywne potoki

Potok jest uznawany za nieaktywny, jeśli nie jest powiązany z wyzwalaczem i w ciągu miesiąca nie wykonywano dla niego przebiegów. W przypadku nieaktywnego potoku jest naliczana opłata w wysokości $- miesięcznie.

CZĘSTO ZADAWANE PYTANIA

  • Operacje odczytu/zapisu obejmują tworzenie, odczytywanie, aktualizowanie i usuwanie jednostek usługi Azure Data Factory. Jednostki obejmują zestawy danych, połączone usługi, potoki, środowisko Integration Runtime i wyzwalacze.
  • Operacje monitorowania obejmują pobieranie i tworzenie list potoków oraz przebiegów debugowania i wyzwalaczy, a także uruchomień działań.
  • Działanie to krok w ramach potoku. Wykonanie każdego działania nazywamy uruchomieniem.
  • Integration Runtime (IR) to infrastruktura obliczeniowa używana przez usługę Azure Data Factory do zapewnienia następujących możliwości integracji danych w różnych środowiskach sieciowych:

    • Przenoszenie danych: Przesyłanie danych między magazynami danych w sieciach publicznych i prywatnych (lokalnych lub wirtualnych) z obsługą wbudowanych łączników, konwersji formatów, mapowania kolumn oraz wydajnego i skalowalnego transferu danych.
    • Wysyłanie działań: Wysyłanie i monitorowanie działań przekształcania uruchamianych w różnych usługach obliczeniowych, takich jak Azure HDInsight, Azure Machine Learning, Azure SQL Database, SQL Server i nie tylko.
    • Wykonywanie pakietów usług SQL Server Integration Services: Natywne wykonywanie pakietów SQL Server Integration Services w zarządzanym środowisku obliczeniowym platformy Azure.
  • Wyzwalacz to jednostka przetwarzania, która określa, kiedy należy rozpocząć wykonanie potoku. Przebieg wyzwalacza to wykonanie wyzwalacza, które może skutkować uruchomieniem działania, jeśli są spełnione warunki.
  • Przebieg debugowania to przebieg testu, który użytkownik może wykonać w ramach programowania przyrostowego, aby upewnić się, że kroki w potoku działają zgodnie z zamierzeniami, zanim zmiany zostaną opublikowane w fabryce danych.
  • Nieaktywny potok to taki, który nie jest powiązany z wyzwalaczem i w ciągu miesiąca nie wykonywano dla niego przebiegów. Opłata jest naliczana po upływie jednego miesiąca bez przebiegów.
  • Za działania wykonywania potoku (przenoszenie danych środowiska Azure Integration Runtime, działania potoku, przenoszenie danych zewnętrznych i własnego środowiska Integration Runtime) jest naliczana stawka godzinowa pokazana powyżej. Opłaty za wykonywanie potoku są naliczane proporcjonalnie do liczby minut i zaokrąglane w górę.

    Na przykład: Jeśli uruchomisz operację, która trwa 2 minuty i 20 sekund, zostaną naliczone opłaty za 3 minuty.

  • Przykłady cen oparte na scenariuszach można znaleźć na stronie dokumentacji usługi Azure Data Factory.
  • Zapoznaj się ze wskazówkami dotyczącymi planowania kosztów usługi ADF i zarządzania nimi na stronie Dominacja usługi Azure Data Factory.

Szczegóły cennika

Ceny za użycie usługi Data Factory są obliczane na podstawie następujących czynników:

  • Częstotliwość działań (wysoka lub niska). Działanie o niskiej częstotliwości nie jest wykonywane częściej niż raz dziennie (np. codziennie, co tydzień, co miesiąc); działanie o wysokiej częstotliwości jest wykonywane częściej niż raz dziennie (np. co godzinę, co 15 min). Aby uzyskać szczegóły, zobacz poniższą sekcję Organizowanie działań.
  • Miejsce uruchamiania działań (chmura lub środowisko lokalne). Zobacz poniższą sekcją Przenoszenie danych.
  • Stan aktywności potoku. Zobacz poniższą sekcję Nieaktywne potoki.
  • Działanie jest uruchamiane ponownie. Zobacz poniższą sekcję Ponowne uruchamianie działań.

Organizowanie działań

Niska częstotliwość Wysoka częstotliwość
Działania uruchomione w chmurze

(przykłady: działanie kopiowania, które przenosi dane z obiektu blob platformy Azure do bazy danych Azure SQL Database; działanie technologii Hive uruchamiające skrypt Hive w klastrze usługi Azure HDInsight).
$- za działanie miesięcznie $- za działanie miesięcznie
Działania uruchamiane lokalnie i uwzględniające własne środowisko IR

(przykłady: działanie kopiowania, które przenosi dane z lokalnej bazy danych programu SQL Server do obiektu blob platformy Azure; działanie procedury składowanej uruchamiające procedurę składowaną w lokalnej bazie danych programu SQL Server).
$- za działanie miesięcznie $- za działanie miesięcznie

Uwagi:

  • Użycie powyżej 100 działań/miesiąc spowoduje zastosowanie 20% rabatu dla scenariuszy z wysoką i niską częstotliwością.
  • Pierwsze 5 działań niskiej częstotliwości w miesiącu jest bezpłatne zarówno w wersji w chmurze, jak i lokalnej.

Przenoszenie danych

Usługa Azure Data Factory pozwala bezpiecznie, niezawodnie i wydajnie kopiować dane między różnymi magazynami z możliwością skalowania. W miarę wzrostu ilości danych lub wymaganej przepływności usługę Azure Data Factory można odpowiednio przeskalować. Zapoznaj się z przewodnikiem dotyczącym wydajności działania kopiowania, aby uzyskać informacje na temat zwiększania wydajności przenoszenia danych przy użyciu jednostek przenoszenia danych.

Przenoszenie danych między magazynami danych w chmurze $- za godzinę
Przenoszenie danych w przypadku korzystania z magazynu lokalnego $- za godzinę
Uwaga:
Mogą być naliczane opłaty za transfer danych, które zostaną przedstawione w osobnym wierszu rachunku zawierającym koszt wychodzącego transferu danych. Opłaty za wychodzący transfer danych są naliczane w przypadku przesłania danych poza centra danych platformy Azure. Aby uzyskać więcej informacji, zobacz szczegóły cennika transferów danych.

Potoki nieaktywne

Dla każdego potoku wdrożonego w usłudze Azure Data Factory musisz określić aktywny okres przetwarzania danych przy użyciu zakresu dat/godzin (czasu rozpoczęcia i zakończenia). Potok jest uznawany za aktywny w wybranym okresie, nawet jeśli działania nie są faktycznie wykonywane. Potok jest uznawany za nieaktywny w pozostałym czasie.

W przypadku nieaktywnego potoku jest naliczana opłata w wysokości $- miesięcznie.

Opłaty za potoki nieaktywne przez cały miesiąc będą naliczane przy użyciu odpowiedniej stawki za „potok nieaktywny” dla danego miesiąca. Opłaty za potoki nieaktywne przez część miesiąca będą naliczane proporcjonalnie za okresy braku aktywności na podstawie liczby godziny braku aktywności potoku w danym miesiącu. Jeśli na przykład data i godzina rozpoczęcia potoku to 1.01.2016 o 12:00, a data i godzina zakończenia to 20.01.2016 o 12:00, potok jest uznawany za aktywny przez tych 20 dni i za nieaktywny przez 11 dni. Opłata za nieaktywny potok ($-) jest naliczana proporcjonalnie przez 11 dni.

Jeśli nie określono aktywnego okresu przetwarzania danych w potoku (czasu rozpoczęcia i zakończenia), będzie on uznawany za nieaktywny.

Ponowne uruchamianie działań

Działania można w razie potrzeby uruchamiać ponownie (np. jeśli źródło danych było niedostępne podczas zaplanowanego uruchamiania). Koszt ponownego uruchamiania działań różni się w zależności od lokalizacji, w której działanie jest uruchamiane. Koszt ponownego uruchamiania działań w chmurze to $- na 1 000 operacji ponownego uruchomienia. Koszt ponownego uruchamiania działań lokalnie to $- na 1 000 operacji ponownego uruchomienia.

Przykład

Masz potok danych z dwoma następującymi działaniami uruchamianymi raz dziennie (niska częstotliwość):

  1. Działanie kopiowania, które kopiuje dane z lokalnej bazy danych programu SQL Server do obiektu blob platformy Azure.
  2. Działanie technologii Hive, które uruchamia skrypt Hive w klastrze usługi Azure HDInsight.

Przenoszenie danych z lokalnej bazy danych programu SQL Server do usługi Azure Blob Storage trwa 2 godz. w ciągu dnia. W poniższej tabeli przedstawiono koszty związane z potokiem:

Pierwsze działanie (kopiowanie danych ze środowiska lokalnego do platformy Azure)
Koszt przenoszenia danych (miesięcznie) 30 dni miesięcznie
2 godz. dziennie
$-
$-
Koszt organizowania działań (miesięcznie) $-
Suma częściowa (miesięcznie) $-
Drugie działanie (skrypt Hive uruchomiony w usłudze Azure HDInsight)
Koszt przenoszenia danych (miesięcznie) $-
Koszt organizowania działań (miesięcznie) $-
Suma częściowa (miesięcznie) $-
Łączna liczba działań (miesięcznie) $-

Możesz też obliczyć opłaty dla tego scenariusza za pomocą kalkulatora cen usługi Data Factory.

Uwagi:

  • Za pięć pierwszych działań w chmurze i działań lokalnych nie jest naliczana opłata. W przypadku powyższych opłat przyjęto założenie, że użyto już pięciu działań w chmurze i pięciu działań lokalnych w miesiącu (w innych potokach).
  • Usługi Azure Storage i HDInsight są rozliczane osobno zgodnie ze stawkami za daną usługę.

Pomoc techniczna i umowa SLA

  • Bezpłatna pomoc dotycząca rozliczeń i subskrypcji
  • Elastyczne plany pomocy technicznej dostępne od $29/mies. Wybierz plan
  • Firma Microsoft gwarantuje, że przez co najmniej 99,9% czasu będzie pomyślnie przetwarzać żądania wykonywania operacji dotyczących zasobów usługi Fabryka danych.
  • Firma Microsoft gwarantuje, że przez co najmniej 99,9% czasu wszystkie uruchomienia działań będą inicjowane w ciągu 4 minut od ich planowanego czasu wykonania.
  • Aby dowiedzieć się więcej o umowach SLA, odwiedź stronę umów SLA.

Często zadawane pytania

  • Działania określają akcje dotyczące danych do wykonania. Każde działanie może używać zestawów danych jako danych wejściowych i tworzy zestawy danych jako dane wyjściowe. Działanie jest jednostką organizowania w usłudze Azure Data Factory.

    Na przykład działanie kopiowania umożliwia organizowanie kopiowania danych między zestawami danych. Podobnie można uruchomić zapytanie technologii Hive w klastrze usługi Azure HDInsight przy użyciu działania technologii Hive w celu przekształcenia lub przeanalizowania danych. Usługa Azure Data Factory oferuje wiele działań przekształceń danych i przenoszenia danych . Możesz też utworzyć niestandardowe działanie platformy .NET, aby uruchomić własny kod.

  • Potok to logiczna grupa działań. Potoki mogą być aktywne w okresie zdefiniowanym przez użytkownika (czas rozpoczęcia i zakończenia). Potoki są nieaktywne w pozostałym czasie.
  • Tak. Jeśli działanie korzysta z usług platformy Azure, takich jak HDInsight, te usługi są rozliczane osobno zgodnie ze stawkami za daną usługę.

  • W przypadku wykonywania kopii danych naliczane są dwa rodzaje kosztów. Po pierwsze zasoby obliczeniowe używane na potrzeby wykonania kopii są reprezentowane przez wielkość pomiaru przenoszenia danych. Pomiar przenoszenia danych ma wersję w chmurze i wersję lokalną. Przenoszenie danych lokalnie jest tańsze, ponieważ część obliczeń skojarzonych z kopią jest wykonywana przez własne zasoby lokalne. Opłaty za przenoszenie danych są naliczane proporcjonalnie do liczby minut i zaokrąglane w górę. Na przykład w przypadku kopiowania danych trwającego 41 minut 23 sekundy czasu obliczeń zostanie naliczona opłata za 42 minuty.

    Ponadto mogą być też naliczane opłaty za transfer danych, które zostaną przedstawione w osobnym wierszu rachunku zawierającym koszt wychodzącego transferu danych. Opłaty za wychodzący transfer danych są naliczane w przypadku przesłania danych poza centra danych platformy Azure. Aby uzyskać więcej informacji, zobacz szczegóły cennika transferów danych.

Zasoby

Oszacuj miesięczne koszty usług systemu Azure

Przejrzyj często zadawane pytania na temat cennika platformy Azure

Dowiedz się więcej o Data Factory

Przejrzyj samouczki techniczne, materiały wideo i inne zasoby

Dodano do oszacowania. Naciśnij klawisz „v”, aby wyświetlić w kalkulatorze

Porozmawiaj ze specjalistą ds. sprzedaży, który przedstawi Ci cennik platformy Azure. Zapoznaj się z informacjami o cenach swojego rozwiązania w chmurze.

Uzyskaj bezpłatne usługi online i $200 środków na eksplorowanie platformy Azure przez 30 dni.