Passer au contenu principal

 Subscribe

Dans le monde d’aujourd’hui axé sur les données, le traitement Big Data est une tâche critique pour toutes les organisations. Pour dégager des insights transformationnels et adopter une culture axée sur les données, les entreprises ont besoin d’outils pour les aider à facilement intégrer et transformer des données à grande échelle, sans nécessiter de compétences spécialisées.

Nous annonçons aujourd’hui la disponibilité générale de la fonctionnalité Flux de données de mappage d’Azure Data Factory (ADF), notre service d’intégration hybride productif et de confiance. Data Factory offre à présent aux utilisateurs un environnement sans code et serverless, qui simplifie l’ETL dans le cloud et s’adapte à n’importe quelle taille de données. Aucune gestion d’infrastructure n’est requise.

Conçus pour gérer l’ensemble des complexités et des défis d’échelle de l’intégration du Big Data, les flux de données de mappage permettent aux utilisateurs de transformer rapidement des données à grande échelle. Créez des pipelines de données résilients dans un environnement visuel accessible avec notre concepteur basé sur un navigateur et laissez ADF gérer les complexités de l’exécution de Spark.

Les flux de données de mappage simplifient le traitement des données grâce à des fonctionnalités intégrées permettant de gérer des schémas de données imprédictibles et de maintenir la résilience face à la modification des données d’entrée. Avec les flux de données de mappage, des clients tels que Nielsen permettent à leurs employés de transformer les données en insights, indépendamment de la complexité des données ou des compétences de leurs équipes en matière de codage.

« Les flux de données de mappage ont permis aux équipes analytiques de Nielsen de nettoyer et de préparer les données dans un environnement convivial et sans code. Cela nous a également permis de fournir à nos clients des insights de façon plus rapide et plus automatisée. » - David Hudzinski, Directeur, Produit, Nielsen


 

740 Blog
Accélérez le délai nécessaire à l’obtention d’insights en vous concentrant sur la création de votre logique métier sans vous soucier de la gestion ni de la maintenance des clusters de serveurs ni de l’écriture de code pour créer des pipelines. Effectuez facilement des tâches ETL telles que le chargement de tables de faits, la gestion de dimensions à évolution lente, l’agrégation de données Big Data semi-structurées, la mise en correspondance de données à l’aide de la mise en correspondance approximative et la préparation des données pour la modélisation. Avec notre interface visuelle intuitive, concevez votre logique de transformation de données sous forme de graphes faciles à lire et créez des bibliothèques de routines de transformation pour transformer facilement des données brutes en insights métiers.

Travaillez comme vous l’entendez, avec du code uniquement, ou sans code avec les flux de données de mappage. Utilisez des transformations intégrées pour effectuer des actions courantes telles que la jointure, l’agrégation, le pivotement et le tri. Personnalisez ces transformations avec le générateur d’expression, qui inclut une aide en ligne complète et automatique.

Lorsque vous créez vos graphes logiques, validez en temps réel à l’aide de la fonction ADF de prévisualisation en direct des données. Des fonctionnalités telles que le nombre de zéros, les distributions de valeurs et l’écart-type fournissent des insights immédiats sur vos données.
   Prévisualisation interactive des données dans ADF.
Enfin, créez des pipelines et déboguez votre nouveau processus ETL de bout en bout à l’aide du générateur de pipeline à glisser-déposer avec débogage interactif.
    740 Blog
Établissez des calendriers pour vos pipelines et surveillez les exécutions de vos flux de données à partir du portail de supervision ADF. Gérez facilement les contrats SLA de disponibilité des données avec les alertes et la supervision enrichie de la disponibilité dans ADF, ainsi que les fonctionnalités CI/CD intégrées pour enregistrer et gérer vos flux dans un environnement DataOps managé. Par ailleurs, établissez des alertes et affichez des plans d’exécution pour valider que votre logique fonctionne comme prévu lorsque vous optimisez vos flux de données.

Les flux de données de mappage changent la donne pour toute organisation cherchant à rendre l’intégration et la transformation des données plus rapides, plus simples et accessibles à tous.

Apprenez-en plus et commencez dès aujourd’hui à utiliser ADF avec les flux de données de mappage.

  • Explore

     

    Let us know what you think of Azure and what you would like to see in the future.

     

    Provide feedback

  • Build your cloud computing and Azure skills with free courses by Microsoft Learn.

     

    Explore Azure learning


Join the conversation