Prosta integracja danych hybrydowych na skalę przedsiębiorstwa
Zapoznaj się z szeregiem możliwości integracji danych, aby znaleźć takie, które spełnią Twoje potrzeby w zakresie skali, infrastruktury, zgodności, wydajności i budżetu — od zarządzanych usług SQL Server Integration Services na potrzeby bezproblemowej migracji projektów programu SQL Server do chmury aż po wielkoskalowe, bezserwerowe potoki danych na potrzeby integracji danych wszelkich kształtów i rozmiarów.
Eksplorowanie opcji cennika
Zastosuj filtry, aby dostosować opcje cennika do własnych potrzeb.
Ceny są jedynie szacunkowe i nie stanowią rzeczywistych ofert cenowych. Rzeczywiste ceny mogą się różnić w zależności od typu umowy zawartej z firmą Microsoft, daty zakupu i kursu wymiany walut. Ceny są obliczane na podstawie kursu dolara amerykańskiego i przeliczane przy użyciu londyńskich kursów zamknięcia typu spot z dwóch dni roboczych przed ostatnim dniem roboczym końca poprzedniego miesiąca. Jeżeli dwa dni robocze poprzedzające koniec miesiąca przypadają na dni świąteczne na głównych rynkach, dniem ustalenia kursu jest zazwyczaj dzień bezpośrednio poprzedzający te dwa dni robocze. Ten kurs dotyczy wszystkich transakcji w nadchodzącym miesiącu. Zaloguj się do kalkulatora cen platformy Azure, aby zobaczyć ceny na podstawie bieżącego programu/oferty firmy Microsoft. Skontaktuj się ze specjalistą ds. sprzedaży platformy Azure, aby uzyskać więcej informacji na temat cen lub poprosić o wycenę. Zobacz często zadawane pytania dotyczące cen platformy Azure.
Instytucje rządowe USA mogą zakupić usługi platformy Azure Government u dostawcy rozwiązań licencjonowania bez zobowiązań finansowych z góry lub bezpośrednio w ramach subskrypcji w modelu płatności zgodnie z rzeczywistym użyciem.
Ważne: cena w R$ jest ceną orientacyjną; jest to transakcja międzynarodowa, a cena ostateczna jest uzależniona od kursów walut i podatku transakcyjnego (IOF). Dokument eNF nie zostanie wystawiony.
Instytucje rządowe USA mogą zakupić usługi platformy Azure Government u dostawcy rozwiązań licencjonowania bez zobowiązań finansowych z góry lub bezpośrednio w ramach subskrypcji w modelu płatności zgodnie z rzeczywistym użyciem.
Ważne: cena w R$ jest ceną orientacyjną; jest to transakcja międzynarodowa, a cena ostateczna jest uzależniona od kursów walut i podatku transakcyjnego (IOF). Dokument eNF nie zostanie wystawiony.
Ceny za potoki danych są obliczane na podstawie następujących czynników:
- Aranżacja i wykonanie potoku
- Wykonywanie i debugowanie przepływu danych
- Liczba operacji usługi Data Factory, takich jak tworzenie i monitorowanie potoków
Aranżacja i wykonanie potoku usługi Data Factory
Potoki to kontrolowane przepływy złożone z osobnych kroków określanych jako działania. Płacisz za aranżację potoków danych według uruchomień działań i wykonywanie działań według godzin środowiska Integration Runtime. Środowisko Integration Runtime, które jest środowiskiem bezserwerowym na platformie Azure i środowiskiem własnym w scenariuszach hybrydowych, zapewnia zasoby obliczeniowe używane do wykonywania działań w potoku. Opłaty za środowisko Integration Runtime są naliczane proporcjonalnie do liczby minut i zaokrąglane w górę.
Na przykład działanie kopiowania w usłudze Azure Data Factory pozwala bezpiecznie, niezawodnie i wydajnie przenosić dane między różnymi magazynami danych z możliwością skalowania. Wraz ze wzrostem wolumenu danych lub zapotrzebowania na przepływność można skalować środowisko Integration Runtime w poziomie w celu spełnienia tych potrzeb.
Typ | Cennik usługi Azure Integration Runtime | Cennik środowiska Integration Runtime zarządzanej sieci wirtualnej hostowanej na platformie Azure | Cennik własnego środowiska Integration Runtime |
---|---|---|---|
Aranżacja1 | $- na 1 000 przebiegów | $- na 1 000 przebiegów | $- na 1 000 przebiegów |
Działania związane z przenoszeniem danych2 | $-/DIU na godzinę | $-/DIU na godzinę | $-/godz. |
Działanie potoku3 | $-/godz. |
$-/godz. (Do 50 współbieżnych działań potoku) |
$-/godz. |
Zewnętrzne działanie potoku4 | $-/godz. |
$-/godz. (Do 800 współbieżnych działań potoku) |
$-/godz. |
Wykonywanie i debugowanie przepływu danych
Przepływy danych to wizualnie zaprojektowane składniki wewnątrz usługi Data Factory, które umożliwiają przekształcanie danych na dużą skalę. Płacisz za czas wykonywania i debugowania klastra przepływu danych za godzinę pracy rdzenia wirtualnego. Minimalny rozmiar klastra do uruchomienia przepływu danych to 8 rdzeni wirtualnych. Opłaty z tytułu wykonania i debugowania są naliczane proporcjonalnie do minuty i zaokrąglane w górę. Artefakty przechwytywania zmian danych są rozliczane według stawek ogólnego przeznaczenia dla klastrów dla 4 rdzeni wirtualnych podczas używana publicznej wersji zapoznawczej przechwytywania zmian danych.
Obiekty przechwytywania zmian danych są wykonywane w tej samej infrastrukturze obliczeniowej przepływu danych przy użyciu jednowęzłowej maszyny wirtualnej z 4 rdzeniami wirtualnymi. Ten sam rabat cenowy dla wystąpienia zarezerwowanego przepływu danych dotyczy również zasobów przechwytywania zmian danych.
Typ | Cena | Rezerwacja na rok (% oszczędności) |
Rezerwacja na trzy lata (% oszczędności) |
---|---|---|---|
Ogólne zastosowanie | $-/rdzeń wirtualny na godzinę | $-/rdzeń wirtualny na godzinę | $-/rdzeń wirtualny na godzinę |
Pamięć | $-/rdzeń wirtualny na godzinę | $-/rdzeń wirtualny na godzinę | $-/rdzeń wirtualny na godzinę |
Menedżer orkiestracji przepływu pracy usługi Azure Data Factory
Rozmiar | Pojemność przepływu pracy | Procesor wirtualny usługi Scheduler | Procesor wirtualny procesu roboczego | Procesor wirtualny serwera internetowego | Cena za godzinę |
---|---|---|---|---|---|
Mały (D2v4) | Do 50 skierowanych grafów acyklicznych | 2 | 2 | 2 | $- |
Duży (D4v4) | Do 1 000 skierowanych grafów acyklicznych | 4 | 4 | 4 | $- |
Dodatkowy węzeł | Procesor wirtualny procesu roboczego | Cena za godzinę |
---|---|---|
Mały (D2v4) | 2 | $- |
Duży (D4v4) | 4 | $- |
Operacje usługi Data Factory
Typ | Cena | Przykłady |
---|---|---|
Odczyt/zapis* | $- na 50 000 zmodyfikowanych/wskazywanych jednostek | Odczyt/zapis jednostek w usłudze Azure Data Factory* |
Monitorowanie | $- na 50 000 pobranych rekordów przebiegów | Monitorowanie potoków oraz przebiegów debugowania i wyzwalaczy, a także uruchomień działań** |
Ceny za użycie usługi Data Factory są obliczane na podstawie następujących czynników:
- Częstotliwość działań (wysoka lub niska). Działanie o niskiej częstotliwości nie jest wykonywane częściej niż raz dziennie (np. codziennie, co tydzień, co miesiąc); działanie o wysokiej częstotliwości jest wykonywane częściej niż raz dziennie (np. co godzinę, co 15 min). Aby uzyskać szczegóły, zobacz poniższą sekcję Organizowanie działań.
- Miejsce uruchamiania działań (chmura lub środowisko lokalne). Zobacz poniższą sekcją Przenoszenie danych.
- Stan aktywności potoku. Zobacz poniższą sekcję Nieaktywne potoki.
- Działanie jest uruchamiane ponownie. Zobacz poniższą sekcję Ponowne uruchamianie działań.
Organizowanie działań
Niska częstotliwość | Wysoka częstotliwość | |
---|---|---|
Działania uruchomione w chmurze (przykłady: działanie kopiowania, które przenosi dane z obiektu blob platformy Azure do bazy danych Azure SQL Database; działanie technologii Hive uruchamiające skrypt Hive w klastrze usługi Azure HDInsight). |
$- za działanie miesięcznie | $- za działanie miesięcznie |
Działania uruchamiane lokalnie i uwzględniające własne środowisko IR (przykłady: działanie kopiowania, które przenosi dane z lokalnej bazy danych programu SQL Server do obiektu blob platformy Azure; działanie procedury składowanej uruchamiające procedurę składowaną w lokalnej bazie danych programu SQL Server). |
$- za działanie miesięcznie | $- za działanie miesięcznie |
Przenoszenie danych
Usługa Azure Data Factory pozwala bezpiecznie, niezawodnie i wydajnie kopiować dane między różnymi magazynami z możliwością skalowania. W miarę wzrostu ilości danych lub wymaganej przepływności usługę Azure Data Factory można odpowiednio przeskalować. Zapoznaj się z przewodnikiem dotyczącym wydajności działania kopiowania, aby uzyskać informacje na temat zwiększania wydajności przenoszenia danych przy użyciu jednostek przenoszenia danych.
Przenoszenie danych między magazynami danych w chmurze | $- za godzinę |
Przenoszenie danych w przypadku korzystania z magazynu lokalnego | $- za godzinę |
Potoki nieaktywne
Dla każdego potoku wdrożonego w usłudze Azure Data Factory musisz określić aktywny okres przetwarzania danych przy użyciu zakresu dat/godzin (czasu rozpoczęcia i zakończenia). Potok jest uznawany za aktywny w wybranym okresie, nawet jeśli działania nie są faktycznie wykonywane. W pozostałych przypadkach jest uważany za nieaktywny.
Opłata za nieaktywny potok wynosi $- miesięcznie.
Potoki, które są nieaktywne przez cały miesiąc, są rozliczane według obowiązującej stawki dla „nieaktywnych potoków” za dany miesiąc. Potoki, które są nieaktywne przez część miesiąca, są rozliczane za okresy nieaktywności proporcjonalnie do liczby godzin nieaktywności w danym miesiącu. Na przykład, jeśli potok ma datę i godzinę rozpoczęcia 1 stycznia 2016 r. o godz. 12:00 oraz datę i godzinę zakończenia 20 stycznia 2016 r. o godz. 12:00, potok jest uważany za aktywny przez te 20 dni i nieaktywny przez 11 dni. Opłata za nieaktywny potok ($-) jest naliczana proporcjonalnie przez 11 dni.
Jeśli potok nie ma określonego aktywnego okresu przetwarzania danych (czasu rozpoczęcia i zakończenia), jest uważany za nieaktywny.
Ponowne uruchamianie działań
Działania można w razie potrzeby uruchamiać ponownie (np. jeśli źródło danych było niedostępne podczas zaplanowanego uruchamiania). Koszt ponownego uruchamiania działań różni się w zależności od lokalizacji, w której działanie jest uruchamiane. Koszt ponownego uruchamiania działań w chmurze to $- na 1 000 operacji ponownego uruchomienia. Koszt ponownego uruchamiania działań lokalnie to $- na 1 000 operacji ponownego uruchomienia.
Przykład
Masz potok danych z dwoma następującymi działaniami uruchamianymi raz dziennie (niska częstotliwość):
- Działanie kopiowania, które kopiuje dane z lokalnej bazy danych programu SQL Server do obiektu blob platformy Azure.
- Działanie technologii Hive, które uruchamia skrypt Hive w klastrze usługi Azure HDInsight.
Przenoszenie danych z lokalnej bazy danych programu SQL Server do usługi Azure Blob Storage trwa 2 godz. w ciągu dnia. W poniższej tabeli przedstawiono koszty związane z potokiem:
Pierwsze działanie (kopiowanie danych ze środowiska lokalnego do platformy Azure) | |
Koszt przenoszenia danych (miesięcznie) | 30 dni miesięcznie |
2 godz. dziennie | |
$- | |
$- | |
Koszt orkiestracji działań (miesięcznie) | $- |
Suma częściowa (miesięcznie) | $- |
Drugie działanie (skrypt Hive uruchomiony w usłudze Azure HDInsight) | |
Koszt przenoszenia danych (miesięcznie) | $- |
Koszt orkiestracji działań (miesięcznie) | $- |
Suma częściowa (miesięcznie) | $- |
Łączna liczba działań (miesięcznie) | $- |
Opcje cen i zakupu platformy Azure
Skontaktuj się z nami bezpośrednio
Zapoznaj się z przewodnikiem dotyczącym cen platformy Azure. Poznaj ceny rozwiązania w chmurze, dowiedz się więcej o optymalizacji kosztów i poproś o ofertę niestandardową.
Rozmowa ze specjalistą ds. sprzedażyZobacz sposoby zakupu
Kup usługi platformy Azure za pośrednictwem witryny internetowej platformy Azure, przedstawiciela firmy Microsoft lub partnera platformy Azure.
Poznaj swoje opcjeDodatkowe zasoby
Azure Data Factory
Dowiedz się więcej o funkcjach i możliwościach produktu Azure Data Factory.
Kalkulator cen
Oszacuj oczekiwane miesięczne koszty używania dowolnej kombinacji produktów platformy Azure.
Umowa SLA
Przejrzyj Umowę dotyczącą poziomu usług dla produktu Azure Data Factory.
Dokumentacja
Przejrzyj samouczki techniczne, materiały wideo i inne zasoby dotyczące produktu Azure Data Factory.
Często zadawane pytania
Azure Data Factory V2
-
Operacje odczytu/zapisu obejmują tworzenie, odczytywanie, aktualizowanie i usuwanie jednostek usługi Azure Data Factory. Jednostki obejmują zestawy danych, połączone usługi, potoki, środowisko Integration Runtime i wyzwalacze.
-
Operacje monitorowania obejmują pobieranie i tworzenie list potoków oraz przebiegów debugowania i wyzwalaczy, a także uruchomień działań.
-
Działanie to krok w ramach potoku. Wykonanie każdego działania nazywamy uruchomieniem.
-
Integration Runtime (IR) to infrastruktura obliczeniowa używana przez usługę Azure Data Factory do zapewnienia następujących możliwości integracji danych w różnych środowiskach sieciowych:
- Przenoszenie danych: Przesyłanie danych między magazynami danych w sieciach publicznych i prywatnych (lokalnych lub wirtualnych) z obsługą wbudowanych łączników, konwersji formatów, mapowania kolumn oraz wydajnego i skalowalnego transferu danych.
- Wysyłanie działań: Wysyłanie i monitorowanie działań przekształcania uruchamianych w różnych usługach obliczeniowych, takich jak Azure HDInsight, Azure Machine Learning, Azure SQL Database, SQL Server i nie tylko.
- Wykonywanie pakietów usług SQL Server Integration Services: Natywne wykonywanie pakietów SQL Server Integration Services w zarządzanym środowisku obliczeniowym platformy Azure.
-
Wyzwalacz to jednostka przetwarzania, która określa, kiedy należy rozpocząć wykonanie potoku. Przebieg wyzwalacza to wykonanie wyzwalacza, które może skutkować uruchomieniem działania, jeśli są spełnione warunki.
-
Przebieg debugowania to przebieg testu, który użytkownik może wykonać w ramach programowania przyrostowego, aby upewnić się, że kroki w potoku działają zgodnie z zamierzeniami, zanim zmiany zostaną opublikowane w fabryce danych.
-
Nieaktywny potok to taki, który nie jest powiązany z wyzwalaczem i w ciągu miesiąca nie wykonywano dla niego przebiegów. Opłata jest naliczana po upływie jednego miesiąca bez przebiegów.
-
Za działania wykonywania potoku (przenoszenie danych środowiska Azure Integration Runtime, działania potoku, przenoszenie danych zewnętrznych i własnego środowiska Integration Runtime) jest naliczana stawka godzinowa pokazana powyżej. Opłaty za wykonywanie potoku są naliczane proporcjonalnie do liczby minut i zaokrąglane w górę.
Na przykład: Jeśli uruchomisz operację, która trwa 2 minuty i 20 sekund, zostaną naliczone opłaty za 3 minuty.
-
Przykłady cen oparte na scenariuszach można znaleźć na stronie dokumentacji usługi Azure Data Factory.
-
Zapoznaj się ze wskazówkami dotyczącymi planowania kosztów usługi ADF i zarządzania nimi na stronie Dominacja usługi Azure Data Factory.
Azure Data Factory V1
-
Działania określają akcje dotyczące danych do wykonania. Każde działanie może używać zestawów danych jako danych wejściowych i tworzy zestawy danych jako dane wyjściowe. Działanie jest jednostką organizowania w usłudze Azure Data Factory.
Na przykład działanie kopiowania umożliwia organizowanie kopiowania danych między zestawami danych. Podobnie można uruchomić zapytanie technologii Hive w klastrze usługi Azure HDInsight przy użyciu działania technologii Hive w celu przekształcenia lub przeanalizowania danych. Usługa Azure Data Factory oferuje wiele działań przekształceń danych i przenoszenia danych . Możesz też utworzyć niestandardowe działanie platformy .NET, aby uruchomić własny kod.
-
Potok to logiczna grupa działań. Potoki mogą być aktywne w okresie zdefiniowanym przez użytkownika (czas rozpoczęcia i zakończenia). Potoki są nieaktywne w pozostałym czasie.
-
Tak. Jeśli działanie korzysta z usług platformy Azure, takich jak HDInsight, te usługi są rozliczane osobno zgodnie ze stawkami za daną usługę.
-
W przypadku wykonywania kopii danych naliczane są dwa rodzaje kosztów. Po pierwsze zasoby obliczeniowe używane na potrzeby wykonania kopii są reprezentowane przez wielkość pomiaru przenoszenia danych. Pomiar przenoszenia danych ma wersję w chmurze i wersję lokalną. Przenoszenie danych lokalnie jest tańsze, ponieważ część obliczeń skojarzonych z kopią jest wykonywana przez własne zasoby lokalne. Opłaty za przenoszenie danych są naliczane proporcjonalnie do liczby minut i zaokrąglane w górę. Na przykład w przypadku kopiowania danych trwającego 41 minut 23 sekundy czasu obliczeń zostanie naliczona opłata za 42 minuty.
Ponadto mogą być też naliczane opłaty za transfer danych, które zostaną przedstawione w osobnym wierszu rachunku zawierającym koszt wychodzącego transferu danych. Opłaty za wychodzący transfer danych są naliczane w przypadku przesłania danych poza centra danych platformy Azure. Aby uzyskać więcej informacji, zobacz szczegóły cennika transferów danych.
Porozmawiaj ze specjalistą ds. sprzedaży, który przedstawi Ci cennik platformy Azure. Zapoznaj się z informacjami o cenach swojego rozwiązania w chmurze.
Uzyskaj bezpłatne usługi online i $200 środków na eksplorowanie platformy Azure przez 30 dni.