Navigation überspringen

Azure Data Lake Storage

Hochgradig skalierbare, sichere Data Lake-Funktionen auf der Grundlage von Azure Blob Storage

Leistungsstarke Data Lake-Funktionen in der Cloud

Azure Data Lake Storage Gen2 ist eine hochgradig skalierbare und kostengünstige Data Lake-Lösung für Big Data-Analysen. Dank des leistungsstarken Dateisystems kombiniert mit immenser Skalierbarkeit und Profitabilität können Sie in kurzer Zeit aufschlussreiche Erkenntnisse gewinnen. Data Lake Storage Gen2 erweitert die Funktionen von Azure Blob Storage und ist für Analyseworkloads optimiert. Data Lake Storage Gen2 ist die umfangreichste Data Lake-Lösung, die auf dem Markt verfügbar ist.

Blog lesen

Weitere Videos ansehen

Schnell

Testen Sie Modelle schneller mit einem Hadoop-kompatiblen Dateisystem, das atomare Datei- und Ordnervorgänge unterstützt und für die sekundenschnelle Auftragsausführung optimiert ist.

Skalierbar

Erhöhen Sie die globale Reichweite, Zuverlässigkeit und Leistung von Azure Blob Storage, und erhalten Sie Unterstützung für riesige Speicherkonten.

Sicher

Erfüllen Sie die strengsten Datensicherheitsanforderungen in Ihrem Unternehmen. Setzen Sie dazu Tools und Ressourcen wie die Unterstützung für POSIX-konforme, detaillierte ACLs, Sicherheit für Objektspeicher mit Verschlüsselung von ruhenden Daten, Azure Active Directory-Integration und Firewalls für Speicherkonten ein.

Kosteneffizient

Erhalten Sie Data Lake-Funktionalität auf dem Preisniveau von cloudbasierten Objektspeichern. Für Date Lake Storage Gen2 gilt dieselbe Lebenszyklusrichtlinie und dasselbe Tiering auf Objektebene, die auch für Azure Blob Storage gelten.

Dienstfunktionen

Hohe Skalierbarkeit

Nahezu unbegrenzter Speicher für Analysedaten

Speicherkosten für Cloudobjekte

Das gleiche kostengünstige Datenspeichermodell wie bei Azure Blob Storage

Weniger Datei- und Ordnertransaktionen

Atomarische Transaktionen für weniger Computezyklen und schnellere Auftragsausführung

Detaillierte Sicherheit für Dateien und Ordner

POSIX-konforme, engmaschige Zugriffskontrolllisten

Vereinfachte Datenerfassung in einem einzigen Speicher

Konsolidierter Datenspeicher mit Data Lake Storage Gen2 oder der Blob Storage-REST-API

Alle Features von Azure Blob Storage

Verwaltung der Datenlebenszyklusrichtlinie; heiße, kalte und Archivspeicherebenen; Unterstützung für Hochverfügbarkeit und Notfallwiederherstellung

Rollenbasierter Zugriff und Speicherkontofirewalls

Mehrschichtige Sicherheit zum Steuern des Datenzugriffs, damit nur Benutzer mit berechtigten IP-Adressen Analysen durchführen können

CDM-Unterstützung (Common Data Model)

Die Möglichkeit, Daten mit leistungsstarken Anwendung wie etwa Microsoft Dynamics 365 (für CRM) und Power BI auszutauschen

Vertrauenswürdige Partner

  • Informatica Cloud
  • Attunity
  • WANDisco
  • Striim
  • Qubole
  • Cloudera

Ihre Möglichkeiten mit Data Lake Storage

Modernes Data Warehouse

最新のデータ ウェアハウス最新のデータ ウェアハウスによって、規模を問わずあらゆるデータを簡単に集約し、分析ダッシュボード、運用レポート、全ユーザーを対象とした高度な分析を通じて分析情報を入手できます。12354
  1. Übersicht
  2. Ablauf

Übersicht

Mit einem modernen Data Warehouse können Sie all Ihre Daten ganz einfach in einem beliebigen Maßstab zusammenzuführen und durch Analysedashboards, operative Berichte oder erweiterte Analysen für all Ihre Benutzer aufschlussreiche Einblicke vermitteln.

Ablauf

  1. 1 Fassen Sie all Ihre strukturierten, unstrukturierten und teilweise strukturierten Daten (Protokolle, Dateien und Medien) mit Azure Data Factory in Azure Blob Storage zusammen.
  2. 2 Nutzen Sie Daten in Azure Blob Storage, um skalierbare Analysen mit Azure Databricks durchzuführen und bereinigte und transformierte Daten zu erhalten.
  3. 3 Bereinigte und transformierte Daten können in Azure SQL Data Warehouse verschoben werden, um sie mit vorhandenen strukturierten Daten zu kombinieren und so einen zentralen Hub für alle Ihre Daten zu schaffen. Nutzen Sie native Connectors zwischen Azure Databricks und Azure SQL Data Warehouse, um auf Daten zuzugreifen und diese im großen Stil zu migrieren.
  4. 4 Erstellen Sie operative Berichte und Analysedashboards im Azure Data Warehouse, um Erkenntnisse aus den Daten zu ziehen, und stellen Sie diese Daten mit Azure Analysis Services Tausenden von Endbenutzern zur Verfügung.
  5. 5 Führen Sie Ad-hoc-Abfragen direkt für Daten innerhalb von Azure Databricks aus.

Erweiterte Big Data-Analysen

Advanced analytics on big dataTransform your data into actionable insights using the best in class machine learning tools. This architecture allows you to combine any data at any scale, and to build and deploy custom machine learning models at scale.1234576
  1. Übersicht
  2. Ablauf

Übersicht

Verwandeln Sie Ihre Daten mit den besten Machine Learning-Tools in umsetzbare Erkenntnisse. Diese Architektur ermöglicht es Ihnen, beliebige Daten in beliebiger Größe zu kombinieren und maßgeschneiderte Machine Learning-Modelle zu erstellen und bereitzustellen.

Ablauf

  1. 1 Fassen Sie all Ihre strukturierten, unstrukturierten und teilweise strukturierten Daten (Protokolle, Dateien und Medien) mit Azure Data Factory in Azure Blob Storage zusammen.
  2. 2 Verwenden Sie Azure Databricks, um die strukturlosen Datasets zu bereinigen, zu transformieren und mit strukturierten Daten aus Betriebsdatenbanken oder Data Warehouses zu kombinieren.
  3. 3 Verwenden Sie skalierbare Machine Learning-/Deep Learning-Methoden, um aus diesen Daten mithilfe von Python, R oder Scala umfassendere Einblicke zu gewinnen – und das auch noch mit integrierter Notebookerfahrungen in Azure Databricks.
  4. 4 Nutzen Sie native Connectors zwischen Azure Databricks und Azure SQL Data Warehouse, um auf Daten zuzugreifen und diese im großen Stil zu migrieren.
  5. 5 Poweruser nutzen die Vorteile der integrierten Funktionen von Azure Databricks, um die Ursachenermittlung und Rohdatenanalyse durchzuführen.
  6. 6 Führen Sie Ad-hoc-Abfragen direkt für Daten innerhalb von Azure Databricks aus.
  7. 7 Nutzen Sie die Erkenntnisse aus Azure Databricks für Cosmos DB, um sie über Web- und mobile Apps zugänglich zu machen.

Echtzeitanalysen

リアルタイム分析ライブのストリーミング データから簡単に分析情報を得られます。 あらゆる IoT デバイスや、Web サイトのクリックストリーム ログから継続的にデータを取得して、ほぼリアルタイムで処理することが可能です。12348765
  1. Übersicht
  2. Ablauf

Übersicht

Gewinnen Sie mühelos Erkenntnisse aus Livestreamingdaten. Erfassen Sie kontinuierlich Daten von jedem IoT-Gerät oder Protokolle von Websiteclickstreams, und verarbeiten Sie diese nahezu in Echtzeit.

Ablauf

  1. 1 Erfassen Sie mit dem Apache Kafka-Cluster in Azure HDInsight mühelos Livestreamingdaten für eine Anwendung.
  2. 2 Bündeln Sie all Ihre strukturierten Daten mit Azure Data Factory in Azure Blob Storage.
  3. 3 Verwenden Sie Azure Databricks, um die Streamingdaten zu bereinigen, zu transformieren und mit strukturierten Daten aus Betriebsdatenbanken oder Data Warehouses zu kombinieren.
  4. 4 Verwenden Sie skalierbare Machine Learning-/Deep Learning-Methoden, um aus diesen Daten mithilfe von Python, R oder Scala umfassendere Einblicke zu gewinnen – und das auch noch mit integrierter Notebookerfahrungen in Azure Databricks.
  5. 5 Nutzen Sie native Connectors zwischen Azure Databricks und Azure SQL Data Warehouse, um auf Daten zuzugreifen und diese im großen Stil zu migrieren.
  6. 6 Erstellen Sie Analysedashboards und eingebettete Berichte in Azure Data Warehouse, um Einblicke innerhalb Ihrer Organisation zu ermöglichen, und stellen Sie diese Daten mit Azure Analysis Services Tausenden von Benutzern zur Verfügung.
  7. 7 Poweruser nutzen die Vorteile der integrierten Funktionen von Azure Databricks und Azure HDInsight, um die Ursachenermittlung und Rohdatenanalyse durchzuführen.
  8. 8 Nutzen Sie die Erkenntnisse aus Azure Databricks für Cosmos DB, um sie über Echtzeit-Apps zugänglich zu machen.

Verwandte Produkte und Dienste

Azure Databricks

Schnelle, einfache und kollaborative Analyseplattform auf Basis von Apache Spark

Data Factory

Hybriddatenintegration auf Unternehmensebene leicht gemacht

SQL Data Warehouse

Elastische Data Warehouse-as-a-Service-Lösung mit Funktionalität auf Unternehmensniveau

Erste Schritte mit Azure Data Lake Storage