Passer au contenu principal

Bienvenue dans Microsoft Ignite 2023 ! L’année dernière a été l’une des véritables transformations. Les entreprises voient des avantages réels aujourd’hui et sont impatientes d’explorer ce qui est à venir, notamment comment elles peuvent faire plus avec leurs investissements de données, créer des applications intelligentes et découvrir ce que l’IA peut faire pour leur entreprise.

Nous avons récemment commandé une étude par le biais d’IDC et découvert des insights sur la façon dont l’IA pilote les résultats de l’entreprise et l’impact économique pour les organisations dans le monde entier. Plus de 2 000 chefs d’entreprise interrogés ont confirmé qu’ils utilisaient déjà l’IA pour les expériences des employés, l’engagement des clients et pour plier la courbe de l’innovation.  

L’étude illustre la valeur métier de l’IA, mais elle vient vraiment à la vie grâce aux histoires de la façon dont nos clients et partenaires innover aujourd’hui. Les clients comme Heineken, Thread, Moveworks, l’Association nationale de basket-ball (NBA), et beaucoup d’autres mettent des technologies IA pour travailler pour leurs entreprises et leurs propres clients et employés. 

À partir de solutions de données modernes adaptées à l’ère de l’IA, des outils de développement bien-aimés et des services d’application , nous créons Microsoft Azure comme supercalculateur d’IA pour les clients, quel que soit le point de départ.

Cette semaine à Ignite, le rythme de l’innovation ne ralentit pas. Nous allons partager plus d’histoires sur la façon dont les organisations se tournent vers de nouvelles solutions pour faire avancer leur activité. Nous annonçons également de nombreuses nouvelles fonctionnalités et mises à jour pour faciliter l’utilisation de vos outils favoris, optimiser les investissements existants, gagner du temps et innover sur Azure en tant que plateforme approuvée.

Solutions de données modernes pour alimenter la transformation IA

Chaque application intelligente commence par les données , et votre IA est aussi bonne que vos données, de sorte qu’une plateforme de données et d’analytique moderne est de plus en plus importante. L’intégration des données et des services et solutions IA peut être un avantage concurrentiel unique, car les données de chaque organisation sont uniques.

L’année dernière, nous avons introduit la plateforme de données intelligentes Microsoft en tant que plateforme intégrée pour rassembler les bases de données opérationnelles, l’analytique et la gouvernance et vous permettre d’intégrer toutes vos ressources de données de manière transparente pour votre entreprise.

Cette semaine, nous annonçons la disponibilité générale de Microsoft Fabric, notre solution de données et d’IA la plus intégrée, dans la plateforme de données intelligentes. Microsoft Fabric peut vous permettre d’utiliser des méthodes qui n’étaient pas possibles avant avec une plateforme de données unifiée. Cela signifie que vous pouvez apporter directement l’IA à vos données, quel que soit l’endroit où elle réside. Cela permet de favoriser une culture centrée sur l’IA pour mettre à l’échelle la puissance de votre création de valeur de données afin de passer plus de temps à innover et à intégrer moins de temps.

EDP est une société énergétique mondiale qui vise à transformer le monde par le biais de sources d’énergie renouvelables. Ils utilisent Microsoft Fabric et OneLake pour simplifier l’accès aux données entre les flux de travail de stockage, de traitement, de visualisation et d’IA de données. Cela leur permet d’adopter entièrement une culture pilotée par les données où elles ont accès à des insights et à des décisions à valeur élevée sont prises avec une vue complète de l’environnement de données.

Nous annonçons également Fabric en tant que plateforme ouverte et extensible. Nous allons présenter des intégrations avec un grand nombre de nos partenaires comme LSEG, Esri, Informatica, Teradata et SAS, qui ont démontré les possibilités d’apporter leurs expériences de produit en tant que charges de travail dans Fabric, en élargissant leur portée et leur étendue de capacités.

Chaque organisation est impatiente de gagner du temps et de l’argent au fur et à mesure qu’elle se transforme. Nous annonçons plusieurs nouvelles fonctionnalités et mises à jour pour Azure SQL qui rendent Azure l’endroit idéal et le plus rentable pour vos données. Mises à jour incluent une tarification plus faible pour le calcul Azure SQL Database Hyperscale, l’offre d’essai gratuit d’Azure SQL Managed Instance et une vague d’autres nouvelles fonctionnalités. 

Le groupe de disponibilité de Lufthansa Anywhere a exécuté Azure SQL pour prendre en charge sa plateforme d’applications et son patrimoine de données, en tirant parti des fonctionnalités entièrement managées pour permettre aux équipes d’effectuer des tâches entre les fonctions. Ils se joignent à l’étape pendant une session de déploiement sur des bases de données à l’échelle du cloud. Vous pouvez donc en savoir plus sur leur expérience directement. 

Créez, mettez à l’échelle et déployez facilement des expériences d’IA multigénérative de manière responsable avec Azure

L’opportunité d’IA pour les entreprises est centrée sur la puissance incroyable de l’IA générative. Nous sommes inspirés par les clients qui infusent désormais facilement les fonctionnalités de génération de contenu pour transformer toutes sortes d’applications en expériences intuitives et contextuelles qui impressionnent et captivent leurs propres clients et employés.

Siemens Digital Industries est une entreprise qui utilise Azure AI pour améliorer ses processus de fabrication en permettant une communication transparente au niveau de l’atelier. Leur solution la plus récente aide les ingénieurs de terrain à signaler des problèmes dans leur langue maternelle, en favorisant l’inclusivité, la résolution efficace des problèmes et des temps de réponse plus rapides. 

Aujourd’hui, les organisations ont besoin d’outils unifiés plus complets pour créer cette prochaine vague d’applications basées sur l’IA générative. C’est pourquoi nous annonçons de nouvelles mises à jour qui poussent les limites de l’innovation de l’IA et facilitent le déploiement responsable de l’IA à grande échelle sur l’ensemble de leur entreprise.

Tout ce dont vous avez besoin pour créer, tester et déployer des innovations ia dans un emplacement pratique

Chez Ignite, nous sommes ravis d’introduire la préversion publique d’Azure AI Studio, une plateforme révolutionnaire pour les développeurs d’IA par Microsoft. Tout ce dont les organisations ont besoin pour s’attaquer à l’IA générative est désormais en un seul endroit : modèles de pointe, intégration des données pour la récupération d’une génération augmentée (RAG), fonctionnalités de recherche intelligentes, gestion complète des modèles de cycle de vie et sécurité du contenu. 

Nous continuons à développer le choix et la flexibilité dans les modèles d’INTELLIGENCE artificielle générative au-delà du service Azure OpenAI. Nous avons annoncé le catalogue de modèles à Build et à Ignite, nous annonçons le modèle en tant que service dans le point de terminaison d’API managé bientôt dans le catalogue de modèles. Cela permettra aux développeurs professionnels d’intégrer facilement de nouveaux modèles de base tels que Llama 2, Les Jais de G42 de Meta, Les commandes de Cohere et Mistral premium dans leurs applications en tant que point de terminaison d’API et ajuster les modèles avec des données d’apprentissage personnalisées, sans avoir à gérer l’infrastructure GPU sous-jacente. Cette fonctionnalité permet d’éliminer la complexité de nos clients et partenaires de provisionnement des ressources et de la gestion de l’hébergement. 

Les grands modèles de langage (LLM) orchestration et rag grounding sont à l’esprit à mesure que l’élan pour les applications IA basées sur LLM augmente. Flux d’invite, outil d’orchestration pour gérer l’orchestration des invites et LLMOps, est désormais en préversion dans Azure AI Studio et est généralement disponible dans Azure Machine Apprentissage. Le flux rapide fournit une solution complète qui simplifie le processus de prototypage, d’expérimentation, d’itération et de déploiement de vos applications IA.

Nous annonçons également à Ignite qu’Azure AI Search, anciennement Recherche cognitive Azure, est désormais disponible dans Azure AI Studio afin que tout reste dans un emplacement pratique pour les développeurs afin de gagner du temps et de renforcer la productivité.

Azure AI Content Coffre ty est également disponible dans Azure AI Studio afin que les développeurs puissent facilement évaluer les réponses de modèle dans une seule plateforme de développement unifiée. Nous annonçons également la préversion des nouvelles fonctionnalités à l’intérieur d’Azure AI Studio alimentée par le contenu Azure AI Coffre ty pour résoudre les risques de sécurité et les dommages introduits par les modèles de langage volumineux. Les nouvelles fonctionnalités permettent d’identifier et d’empêcher les modifications non autorisées et d’identifier quand les modèles linguistiques volumineux génèrent des éléments qui tirent parti de la propriété intellectuelle et du contenu tiers. 

Avec azure AI Content Coffre ty, les développeurs peuvent surveiller le contenu généré par l’IA et les langages et simplifier les flux de travail avec des niveaux de gravité personnalisables et des listes de blocs intégrées.

Il est important de voir que les clients tirent déjà parti de cela pour créer leurs solutions IA. En seulement six mois, Perplexity a amené Perplexity Ask, un moteur de réponse conversationnelle, à commercialiser avec Azure AI Studio. Ils ont pu simplifier et accélérer le développement de l’IA, se mettre à l’échelle plus rapidement pour prendre en charge des millions d’utilisateurs et offrir une sécurité et une fiabilité rentables.

Si vous créez un copilote personnalisé, améliorez la recherche, améliorez les centres d’appels, développez des bots ou un mélange de tout cela, Azure AI Studio offre tout ce dont vous avez besoin. Vous pouvez case activée le blog d’Eric Boyd pour en savoir plus sur Azure AI Studio.

Azure AI Studio Hero Image

L’IA générative est désormais multimodale

Nous sommes heureux d’activer un nouveau chapitre dans le parcours d’IA générative pour nos clients avec GPT-4 Turbo with Vision, en préversion, bientôt disponible dans le service Azure OpenAI et Azure AI Studio. Avec GPT-4 Turbo avec Vision, les développeurs peuvent fournir des fonctionnalités multimodaux dans leurs applications. 

Nous ajoutons plusieurs nouvelles mises à jour à Azure AI Vision. GPT-4 Turbo avec Vision en combinaison avec notre service Azure AI Vision peut voir, comprendre et effectuer des inférences telles que l’analyse vidéo ou la vidéo Q&A à partir d’entrées visuelles et d’instructions d’invite textuelle associées.

En plus de GPT-4 Turbo avec Vision, nous sommes heureux de partager d’autres nouvelles innovations à Azure OpenAI Service, notamment GPT-4 Turbo en préversion et GPT-3.5 Turbo 16K 1106 en disponibilité générale à la fin de novembre et modèle d’image DALL-E 3 en préversion maintenant.

Rechercher dans l’ère de l’IA

Les techniques de récupération efficaces, comme celles alimentées par la recherche, peuvent améliorer la qualité des réponses et de la latence de réponse. Une pratique courante pour la récupération des connaissances (étape de récupération dans RAG) consiste à utiliser la recherche vectorielle. La recherche peut alimenter des techniques de récupération efficaces pour améliorer considérablement la qualité des réponses et réduire la latence, ce qui est essentiel pour les applications d’IA génératives, car elles doivent être ancrées sur le contenu à partir de données ou de sites web, afin d’augmenter les réponses générées par des llMs. 

Azure AI Search est une plateforme de recherche et de récupération d’informations robuste qui permet aux organisations d’utiliser leurs propres données pour offrir des expériences hyper-personnalisées dans des applications d’IA génératives. Nous annonçons la disponibilité générale de la recherche vectorielle pour obtenir des résultats rapides et très pertinents des données.

La recherche vectorielle est une méthode de recherche d’informations dans différents types de données, notamment les images, l’audio, le texte, la vidéo, etc. Il s’agit de l’un des éléments les plus critiques des applications intelligentes et optimisées par l’IA, et l’ajout de cette fonctionnalité est notre dernière fonctionnalité prête pour l’IA pour venir à notre portefeuille de bases de données Azure.

Le ranker sémantique, anciennement appelé recherche sémantique, est également généralement disponible et fournit l’accès aux mêmes technologies de re-classement de recherche basée sur le Machine Learning utilisées pour alimenter Bing. Vos applications IA génératives peuvent fournir les réponses de qualité la plus élevée à chaque utilisateur Q&A avec une base de données vectorielle riche en fonctionnalités intégrée à la technologie de pertinence de pointe.

Azure AI Search Hero Image

Accélérer votre parcours IA de manière responsable et avec confiance

Chez Microsoft, nous nous engageons à sécuriser et à gérer l’IA. Elle va au-delà des valeurs éthiques et des principes fondamentaux, qui sont extrêmement importants. Nous l’intégrons aux produits, services et outils que nous mettons en production afin que les organisations puissent se baser sur la sécurité, la gestion des risques et la confiance. 

Nous sommes heureux d’annoncer de nouvelles mises à jour chez Ignite pour aider les clients à poursuivre l’IA de manière responsable et avec confiance.

Microsoft a défini la norme avec des services et des outils tels qu’Azure AI Content Coffre ty, le tableau de bord d’IA responsable, la surveillance des modèles et notre engagement de premier plan à défendre et à indemniser les clients commerciaux contre les poursuites contre les atteintes aux droits d’auteur. 

Aujourd’hui, nous annonçons l’expansion de l’engagement copilot sur le droit d’auteur, maintenant appelé Customer Copyright Commitment (CCC), aux clients qui utilisent Azure OpenAI Service.À mesure que d’autres clients créent avec l’IA générative au sein de leurs organisations, ils sont inspirés par le potentiel de cette technologie et sont impatients de le commercialiser en externe. 

En étendant le CCC à Azure OpenAI Service, Microsoft étend notre engagement à défendre nos clients commerciaux et à payer pour les jugements défavorables s’ils sont poursuivis pour violation de droits d’auteur pour l’utilisation des sorties générées par Azure OpenAI Service. Cet avantage sera disponible à compter du 1er décembre 2023.

Dans le cadre de cette expansion, nous avons publié de nouvelles documentations pour aider les clients d’Azure OpenAI Service à implémenter des mesures techniques et d’autres bonnes pratiques pour atténuer le risque de violation de contenu. Les clients devront se conformer à la documentation pour tirer parti de l’avantage. Azure OpenAI Service est un service de développement et est fourni avec un engagement partagé pour créer de manière responsable. Nous attendons avec impatience que les clients tirent parti de celui-ci au fur et à mesure qu’ils créent leurs propres copilotes.

Annonce de l’offre Azure AI Advantage

Nous voulons être votre partenaire de confiance à mesure que vous fournissez des expériences transformatrices de nouvelle génération avec une technologie d’IA de pointe, une plateforme profondément intégrée et une sécurité cloud de pointe.  

Azure offre une pile complète et intégrée conçue pour les applications cloud natives et basées sur l’IA, accélérant votre temps de commercialisation et vous offrant un avantage concurrentiel et des performances supérieures. Pour vous aider dans ce parcours, nous sommes heureux d’introduire une nouvelle offre pour aider les clients Azure AI et GitHub Copilot existants à réaliser la valeur d’Azure AI et d’Azure Cosmos DB ensemble et à suivre rapidement le développement d’applications basées sur l’IA. Vous pouvez en savoir plus sur l’offre Azure AI Advantage et vous inscrire ici

Azure Cosmos DB et Azure AI combiné offrent de nombreux avantages, notamment une fiabilité accrue des applications d’IA générative grâce à la vitesse d’Azure Cosmos DB, une plateforme de sécurité et d’infrastructure de classe mondiale pour développer votre activité tout en protégeant vos données et en approvisionnant le débit pour s’adapter en toute transparence à mesure que votre application augmente.

Les services Azure AI et les clients GitHub Copilot qui déploient leurs applications IA sur Azure Kubernetes Service peuvent bénéficier de remises supplémentaires. Parlez à votre représentant Microsoft pour en savoir plus. 

Permettre à tous les développeurs d’utiliser des outils optimisés pour l’IA

Il y a tellement en magasin cette semaine chez Ignite pour améliorer l’expérience des développeurs, gagner du temps et augmenter la productivité qu’ils créent des applications intelligentes. Examinons ce qui est nouveau.

Mises à jour pour Azure Cosmos DB : la base de données pour l’ère de l’IA

Pour que les développeurs fournissent des applications plus efficacement et avec des coûts de production réduits, nous partageons de nouvelles fonctionnalités dans Azure Cosmos DB.

Désormais en préversion, la mise à l’échelle dynamique offre aux développeurs une nouvelle flexibilité pour augmenter ou diminuer les bases de données et réaliser des économies pour les clients, en particulier celles avec des opérations dans le monde entier. Nous allons également approfondir l’ia dans l’expérience des développeurs et augmenter la productivité avec la préversion de Microsoft Copilot pour Azure permettant des requêtes en langage naturel dans Azure Cosmos DB.  

Bond Brand Loyalty s’est tourné vers Azure Cosmos DB pour effectuer une mise à l’échelle vers plus de deux pétaoctets de données transactionnelles tout en conservant la sécurité et la confidentialité pour leurs propres clients. Sur Azure, Bond a créé une offre moderne pour prendre en charge des configurations de sécurité étendues, ce qui réduit le temps d’intégration pour les nouveaux clients de 20 %.

Nous annonçons deux mises à jour intéressantes pour permettre aux développeurs de créer des applications intelligentes : disponibilité générale d’Azure Cosmos DB pour MongoDB vCore et recherche vectorielle dans Azure Cosmos DB pour MongoDB vCore.

Azure Cosmos DB pour MongoDB vCore permet aux développeurs de créer des applications intelligentes avec une prise en charge complète des données MongoDB stockées dans Azure Cosmos DB, ce qui déverrouille les opportunités de développement d’applications grâce à une intégration approfondie avec d’autres services Azure. Cela signifie que les développeurs peuvent profiter des avantages des intégrations Azure natives, du faible coût total de possession (TCO) et d’une architecture vCore familière lors de la migration d’applications existantes ou de la création de nouvelles applications. 

La recherche vectorielle dans Azure Cosmos DB pour MongoDB vCore permet aux développeurs d’intégrer en toute transparence les données stockées dans Azure Cosmos DB dans des applications basées sur l’IA, notamment celles qui utilisent des incorporations de service Azure OpenAI. La recherche vectorielle intégrée vous permet de stocker, d’indexer et d’interroger efficacement des données vectorielles à haute dimension et d’éliminer la nécessité de transférer les données en dehors de votre base de données Azure Cosmos DB.

Les développeurs PostgreSQL ont utilisé la recherche vectorielle intégrée dans Azure Database pour PostgreSQL et Azure Cosmos DB pour PostgreSQL depuis cet été. À présent, ils peuvent tirer parti de la préversion publique de l’extension Azure AI dans Azure Database pour PostgreSQL pour créer des llms et des solutions d’INTELLIGENCE artificielle enrichies.

KPMG Australie a utilisé la fonctionnalité de recherche vectorielle lorsqu’elle s’est tournée vers Azure OpenAI Service et Azure Cosmos DB pour créer sa propre application copilote. L’application KymChat a aidé les employés à accélérer la productivité et à rationaliser les opérations. La solution est également mise à la disposition des clients DE KPMG par le biais d’un accélérateur qui combine les cas d’usage, les fonctionnalités et les leçons apprises de KymChat, ce qui aide les clients à accélérer leur parcours ia.

Création d’applications cloud natives et intelligentes

Les applications intelligentes combinent la puissance de l’IA et des données à l’échelle du cloud avec le développement d’applications natives cloud pour créer des expériences numériques hautement différenciées. La synergie entre les technologies natives cloud et l’IA est une opportunité tangible pour l’évolution des applications traditionnelles, ce qui les rend intelligentes et offre plus de valeur aux utilisateurs finaux. Nous nous engageons à améliorer continuellement Azure Kubernetes Service pour répondre à ces demandes en constante évolution de l’IA pour les clients qui viennent de commencer ainsi que ceux qui sont plus avancés.

Les clients peuvent désormais exécuter des charges de travail machine learning spécialisées telles que des machines virtuelles llms sur Azure Kubernetes Service plus rentables et avec une configuration moins manuelle. L’opérateur de chaîne d’outils Kubernetes AI automatise le déploiement de LLMs sur AKS sur les ressources PROCESSEUR et GPU disponibles en sélectionnant une infrastructure de taille optimale pour le modèle. Il permet de fractionner facilement l’inférence entre plusieurs machines virtuelles virturales à nombre inférieur de GPU, ce qui augmente le nombre de régions Azure dans lesquelles les charges de travail peuvent s’exécuter, éliminant ainsi les temps d’attente pour des machines virtuelles à nombre de GPU plus élevés et réduisant le coût global. Les clients peuvent également exécuter des modèles prédéfinis à partir du code source ouvert hébergé sur AKS, réduisant considérablement les coûts et le temps d’installation global du service d’inférence tout en éliminant la nécessité pour les équipes d’être experts sur l’infrastructure disponible. 

Azure Kubernetes Fleet Manager est désormais en disponibilité générale et active des scénarios multi-cluster et à grande échelle pour les clusters Azure Kubernetes Service. Fleet Manager fournit une échelle globale aux administrateurs pour gérer la distribution des charges de travail entre les clusters et faciliter les mises à jour de plateforme et d’application afin que les développeurs puissent s’assurer qu’ils s’exécutent sur les logiciels les plus récents et les plus sécurisés. 

Nous avons également partagé des enseignements sur la façon d’aider les organisations d’ingénierie à commencer et à être productifs rapidement, tout en garantissant que les systèmes sont sécurisés, conformes et contrôlés par les coûts. Microsoft fournit un ensemble principal de modules de construction et d’apprentissage technologiques pour aider les organisations à commencer leur parcours pour établir une pratique d’ingénierie de plateforme. 

Nouvelles fonctionnalités de Microsoft Dev Box pour améliorer l’expérience du développeur

La gestion d’une station de travail de développeur qui peut générer, exécuter et déboguer votre application est essentielle pour suivre le rythme des équipes de développement modernes. Microsoft Dev Box fournit aux développeurs des stations de travail de développeur prêtes à l’emploi sécurisées et prêtes à l’emploi pour les équipes hybrides de toute taille. 

Nous introduisons de nouvelles fonctionnalités en préversion pour donner aux équipes de développement un contrôle plus précis sur leurs images, la possibilité de se connecter à des réseaux hébergés afin de simplifier la connexion à vos ressources en toute sécurité et les modèles pour faciliter la mise en service et l’exécution. Jumelées à de nouvelles fonctionnalités provenant d’environnements de déploiement Azure, il est plus facile que jamais de déployer ces projets sur Azure.

Reposez sur une base fiable et évolutive avec .NET 8

.NET 8 est un grand saut vers la création de .NET l’une des meilleures plateformes pour créer des applications cloud natives intelligentes, avec la première préversion de .NET Aspire – une pile de clouds avisée pour la création d’applications natives cloud observables, prêtes pour la production et distribuées. Il inclut des composants organisés pour les notions de base natives du cloud, notamment la télémétrie, la résilience, la configuration et les case activée d’intégrité. La pile facilite la découverte, l’acquisition et la configuration des dépendances essentielles pour les applications natives cloud le jour 1 et le jour 100. 

.NET 8 est également la version la plus rapide de .NET jamais, avec des améliorations de productivité des développeurs sur la pile , que vous générez pour le cloud, une application web de pile complète, un ordinateur de bureau ou une application mobile qui suing .NET MAUI, ou l’intégration de l’IA pour générer le copilote suivant pour votre application. Ceux-ci sont disponibles dans Visual Studio, qui publie également aujourd’hui.  

Azure Functions et Azure App Service prennent entièrement en charge .NET 8 dans Linux et Windows, et Azure Kubernetes Service et Azure Container Apps prennent également en charge .NET 8 aujourd’hui.  

Il n’existe aucune limite à votre potentiel d’innovation avec Azure

Il y a tellement de déploiement cette semaine avec les données, l’IA et les applications numériques, donc j’espère que vous allez vous familiariser avec l’expérience Ignite virtuelle et en savoir plus sur l’ardoise complète des annonces et plus sur la façon dont vous pouvez mettre Azure à travailler pour votre entreprise. 

Les annonces de cette semaine sont la preuve de notre engagement à aider les clients à adopter cette étape suivante de l’innovation et à rester prêts à l’avenir. Je ne peux pas attendre de voir comment se déroule votre créativité et vos nouvelles innovations pour votre entreprise. 

Vous pouvez case activée ces ressources pour en savoir plus sur tous les éléments partagés aujourd’hui. Nous espérons que vous avez une grande semaine Ignite !

 

 

  • Explore

     

    Let us know what you think of Azure and what you would like to see in the future.

     

    Provide feedback

  • Build your cloud computing and Azure skills with free courses by Microsoft Learn.

     

    Explore Azure learning


Join the conversation