Zum Hauptinhalt wechseln

Willkommen bei Microsoft Ignite 2023! Das vergangene Jahr war eine wahre Transformation. Unternehmen sehen heute echte Vorteile und sind bestrebt, zu erkunden, was als Nächstes passiert – einschließlich der Möglichkeiten, mehr mit ihren Dateninvestitionen zu tun, intelligente Anwendungen zu erstellen und zu entdecken, was KI für ihr Unternehmen tun kann.

Wir haben kürzlich eine Studie über IDC in Auftrag gegeben und Einblicke in die Entwicklung von Geschäftsergebnissen und wirtschaftlichen Auswirkungen von KI für Organisationen weltweit aufgedeckt. Mehr als 2.000 befragten Unternehmensleiter bestätigten, dass sie bereits KI für Mitarbeitererfahrungen, Kundenbindung und die Kurve der Innovation nutzen.  

Die Studie veranschaulicht den Geschäftswert von KI, aber es kommt wirklich durch die Geschichten, wie unsere Kunden und Partner heute innovativ sind. Kunden wie Heineken, Thread, Moveworks, die National Basketball Association (NBA) und so viele mehr setzen KI-Technologien für ihre Unternehmen und ihre eigenen Kunden und Mitarbeiter. 

Von modernen Datenlösungen, die für die Zeit von KI, beliebten Entwicklertools und Anwendungsdiensten einzigartig geeignet sind, bauen wir Microsoft Azure als KI-Supercomputer für Kunden, unabhängig vom Ausgangspunkt.

In dieser Woche bei Ignite verlangsamt sich das Innovationstempo nicht. Wir werden weitere Geschichten darüber erzählen, wie Organisationen neue Lösungen entwickeln, um ihr Geschäft voranzutreiben. Außerdem kündigen wir viele neue Funktionen und Updates an, um die Verwendung Ihrer bevorzugten Tools zu vereinfachen, vorhandene Investitionen zu maximieren, Zeit zu sparen und Innovationen auf Azure als vertrauenswürdige Plattform zu nutzen.

Moderne Datenlösungen zur Ki-Transformation

Jede intelligente App beginnt mit Daten – und Ihre KI ist nur so gut wie Ihre Daten – so dass eine moderne Daten- und Analyseplattform immer wichtiger wird. Die Integration von Daten- und KI-Diensten und -Lösungen kann ein einzigartiger Wettbewerbsvorteil sein, da die Daten jeder Organisation einzigartig sind.

Im vergangenen Jahr haben wir die Microsoft Intelligent Data Platform als integrierte Plattform eingeführt, um operative Datenbanken, Analysen und Governance zusammenzubringen und Ihnen die nahtlose Integration aller Datenressourcen in eine Weise zu ermöglichen, die für Ihr Unternehmen funktioniert.

Bei Ignite in dieser Woche werden wir die allgemeine Verfügbarkeit von Microsoft Fabric, unserer integriertsten Daten- und KI-Lösung , in der Intelligent Data Platform angekündigt. Microsoft Fabric kann Ihnen möglichkeiten geben, wie sie zuvor nicht mit einer einheitlichen Datenplattform möglich waren. Dies bedeutet, dass Sie KI direkt zu Ihren Daten bringen können, unabhängig davon, wo es sich befindet. Dies trägt dazu bei, eine KI-zentrierte Kultur zu fördern, um die Leistungsfähigkeit Ihrer Datenwerterstellung zu skalieren, damit Sie mehr Zeit in der Innovation und weniger Zeit mit der Integration verbringen können.

EDP ist ein globales Energieunternehmen, das darauf abzielt, die Welt durch erneuerbare Energiequellen zu transformieren. Sie verwenden Microsoft Fabric und OneLake, um den Datenzugriff über Datenspeicherungs-, Verarbeitungs-, Visualisierungs- und KI-Workflows hinweg zu vereinfachen. Dies ermöglicht es ihnen, eine datengesteuerte Kultur vollständig zu nutzen, in der sie Zugriff auf hochwertige Einblicke haben und Entscheidungen mit einer umfassenden Ansicht der Datenumgebung getroffen werden.

Außerdem kündigen wir Fabric als offene und erweiterbare Plattform an. Wir werden Integrationen mit vielen unserer Partner wie LSEG, Esri, Informatica, Teradata und SAS präsentieren, die die Möglichkeiten demonstriert haben, ihre Produkterfahrungen als Workloads in Fabric zu bringen, um ihre Reichweite und breite Palette an Funktionen zu erweitern.

Jede Organisation ist bestrebt, Zeit und Geld zu sparen, während sie sich transformieren. Wir kündigen mehrere neue Features und Updates für Azure SQL an, die Azure zum idealen und kostengünstigsten Ort für Ihre Daten machen. Updates umfassen niedrigere Preise für Azure SQL-Datenbank Hyperscale-Compute, Azure SQL verwaltete Instanz kostenloses Testangebot und eine Welle anderer neuer Features. 

Die Lufthansa Technik AG hat Azure SQL ausgeführt, um ihre Anwendungsplattform und Data Estate zu unterstützen, wobei voll verwaltete Funktionen genutzt werden, um Teams über Funktionen hinweg zu unterstützen. Sie treten während einer Gruppensitzung in Clouddatenbanken an der Bühne teil, damit Sie direkt mehr über ihre Erfahrung erfahren können. 

Einfaches Erstellen, Skalieren und Bereitstellen von multimodalen generativen KI-Erfahrungen mit Azure

Die KI-Chance für Unternehmen ist auf die unglaubliche Leistungsfähigkeit der generativen KI ausgerichtet. Wir sind von Kunden inspiriert, die jetzt die Funktionen der Inhaltsgenerierung nimbsieren, um alle Arten von Apps in intuitive, kontextbezogene Erfahrungen umzuwandeln, die ihre eigenen Kunden und Mitarbeiter überzeugen und begeistern.

Siemens Digital Industries ist ein Unternehmen, das Azure AI verwendet, um seine Fertigungsprozesse zu verbessern, indem die nahtlose Kommunikation auf der Ladenfläche ermöglicht wird. Ihre neueste Lösung hilft Außentechnikern, Probleme in ihrer Muttersprache zu melden, Inklusion zu fördern, effiziente Problemlösungen und schnellere Reaktionszeiten zu fördern. 

Heute benötigen Organisationen umfassendere, einheitliche Tools, um für diese nächste Welle von generativen KI-basierten Anwendungen zu erstellen. Deshalb kündigen wir neue Updates an, die die Grenzen der KI-Innovation vorantreiben und kunden die verantwortungsvolle Bereitstellung von KI im gesamten Unternehmen erleichtern.

Alles, was Sie benötigen, um KI-Innovationen an einem praktischen Ort zu erstellen, zu testen und bereitzustellen

Bei Ignite freuen wir uns, die öffentliche Vorschau von Azure AI Studio, einer bahnbrechenden Plattform für KI-Entwickler von Microsoft, einzuführen. Alles, was Organisationen brauchen, um generative KI anzugehen, ist jetzt an einem Ort: Spitzenmodelle, Datenintegration für die erweiterte Abrufgenerierung (RAG), intelligente Suchfunktionen, Full-Lifecycle-Modellverwaltung und Inhaltssicherheit. 

Wir erweitern weiterhin Die Auswahl und Flexibilität bei generativen KI-Modellen über Azure OpenAI Service hinaus. Wir haben den Modellkatalog bei Build und bei Ignite angekündigt, wir kündigen model as a Service im verwalteten API-Endpunkt an, der in Kürze im Modellkatalog verfügbar ist. Dies ermöglicht Es Pro-Entwicklern, neue Foundation-Modelle wie meta es Llama 2, G42 es Jais, Command from Cohere und Mistrals Premium-Modelle einfach in ihre Anwendungen als API-Endpunkt zu integrieren und Modelle mit benutzerdefinierten Schulungsdaten zu optimieren, ohne die zugrunde liegende GPU-Infrastruktur verwalten zu müssen. Diese Funktionalität wird dazu beitragen, die Komplexität für unsere Kunden und Partner der Bereitstellung von Ressourcen und die Verwaltung von Hosting zu beseitigen. 

Große Sprachmodelle (LLM) Orchestrierung und Erdung RAG sind an oberster Stelle, da die Dynamik für LLM-basierte KI-Anwendungen wächst. Der Promptfluss, ein Orchestrierungstool zum Verwalten der Prompt-Orchestrierung und LLMOps, befindet sich jetzt in der Vorschau in Azure AI Studio und ist allgemein in Azure Machine Learning verfügbar. Prompt flow bietet eine umfassende Lösung, die den Prozess der Prototyperstellung, des Experimentierens, Durchlaufens und Bereitstellens Ihrer KI-Anwendungen vereinfacht.

Außerdem wird bei Ignite angekündigt, dass Azure AI Search, früher Azure Cognitive Search, jetzt in Azure AI Studio verfügbar ist, sodass alles wieder Standard an einem praktischen Ort für Entwickler verfügbar ist, um Zeit zu sparen und die Produktivität zu steigern.

Azure AI Content Tresor ty ist auch in Azure AI Studio verfügbar, sodass Entwickler Modellantworten auf einfache Weise in einer einheitlichen Entwicklungsplattform auswerten können. Außerdem kündigen wir die Vorschau neuer Features in Azure AI Studio an, die von Azure AI Content Tresor ty unterstützt werden, um Schäden und Sicherheitsrisiken zu beheben, die von großen Sprachmodellen eingeführt werden. Die neuen Features helfen beim Identifizieren und Verhindern von versuchten nicht autorisierten Änderungen und identifizieren, wann große Sprachmodelle Material generieren, das geistiges Eigentum und Inhalte von Drittanbietern nutzt. 

Mit Azure AI Content Tresor ty können Entwickler menschliche und KI-generierte Inhalte über Sprachen und Modalitäten hinweg überwachen und Workflows mit anpassbaren Schweregraden und integrierten Blocklisten optimieren.

Es ist großartig, kunden zu sehen, die dies bereits nutzen, um ihre KI-Lösungen zu erstellen. In nur sechs Monaten brachte Perplexity Ask, ein Unterhaltungsantwortmodul, mit Azure AI Studio auf den Markt. Sie konnten die KI-Entwicklung optimieren und beschleunigen, schneller auf den Markt kommen, schnell skalieren, um Millionen von Benutzern zu unterstützen und kosteneffizient Sicherheit und Zuverlässigkeit zu liefern.

Wenn Sie einen benutzerdefinierten Copilot erstellen, die Suche verbessern, Die Anrufcenter verbessern, Bots entwickeln oder eine Mischung aus all dem erstellen, bietet Azure AI Studio alles, was Sie benötigen. Sie können sich den Blog von Eric Boyd ansehen, um mehr über Azure AI Studio zu erfahren.

Azure AI Studio Hero Image

Generative KI ist jetzt multi modal

Wir freuen uns, ein neues Kapitel in der generativen KI-Reise für unsere Kunden mit GPT-4 Turbo mit Vision in der Vorschau zu ermöglichen, die in Kürze für den Azure OpenAI-Dienst und Azure AI Studio verfügbar ist. Mit GPT-4 Turbo mit Vision können Entwickler multi modale Funktionen in ihren Anwendungen bereitstellen. 

Wir fügen mehrere neue Updates zu Azure AI Vision hinzu. GPT-4 Turbo mit Vision in Kombination mit unserem Azure AI Vision-Dienst kann Schlussfolgerungen wie Videoanalyse oder Video Q&A von visuellen Eingaben und zugehörigen textbasierten Eingabeaufforderungsanweisungen erkennen, verstehen und machen.

Zusätzlich zu GPT-4 Turbo mit Vision freuen wir uns, weitere neue Innovationen für Azure OpenAI Service zu teilen, darunter GPT-4 Turbo in der Vorschau und GPT-3.5 Turbo 16K 1106 in der allgemeinen Verfügbarkeit, die Ende November und Imagemodell DALL-E 3 in der Vorschau verfügbar sind.

Suche im Zeitalter der KI

Effektive Abruftechniken wie solche, die von der Suche unterstützt werden, können die Qualität von Antworten und Antwortlatenz verbessern. Eine gängige Praxis für den Wissensabruf (Abrufschritt in RAG) ist die Verwendung der Vektorsuche. Die Suche kann effektive Abruftechniken ermöglichen, um die Qualität der Antworten erheblich zu verbessern und die Latenz zu reduzieren, was für generative KI-Apps unerlässlich ist, da sie auf Inhalten aus Daten oder Websites basieren müssen, um Antworten zu erweitern, die von LLMs generiert werden. 

Azure AI Search ist eine robuste Informationsempfangs- und Suchplattform, mit der Organisationen ihre eigenen Daten verwenden können, um hyperpersonalisierungsbasierte Erfahrungen in generativen KI-Anwendungen bereitzustellen. Wir kündigen die allgemeine Verfügbarkeit der Vektorsuche für schnelle, hochgradig relevante Ergebnisse aus Daten an.

Die Vektorsuche ist eine Methode zum Suchen nach Informationen innerhalb verschiedener Datentypen, einschließlich Bildern, Audio, Text, Video und mehr. Es ist eines der wichtigsten Elemente von KI-basierten, intelligenten Apps und das Hinzufügen dieser Funktion ist unsere neueste KI-fähige Funktionalität, um zu unserem Azure-Datenbankportfolio zu gelangen.

Der semantische Rangierer, früher als semantische Suche bezeichnet, ist ebenfalls allgemein verfügbar und bietet Zugriff auf die gleiche machine learning-basierte Such-Re-Ranking-Technologie, die für Bing verwendet wird. Ihre generativen KI-Anwendungen können für jeden Benutzer Q&A mit einer funktionsreichen Vektordatenbank, die mit modernster Relevanztechnologie integriert ist, höchste Qualitätsantworten liefern.

Azure AI Search Hero Image

Beschleunigen Sie Ihre KI-Reise verantwortungsbewusst und mit Vertrauen

Bei Microsoft setzen wir uns für sichere und verantwortungsvolle KI ein. Es geht über ethische Werte und grundlegende Prinzipien hinaus, die von entscheidender Bedeutung sind. Wir integrieren dies in die Produkte, Dienste und Tools, die wir veröffentlichen, damit Organisationen auf einer Grundlage von Sicherheit, Risikomanagement und Vertrauen aufbauen können. 

Wir freuen uns, neue Updates bei Ignite bekanntzugeben, damit Kunden KI verantwortungsbewusst und vertrauensvoll verfolgen können.

Microsoft hat den Standard mit Diensten und Tools wie Azure AI Content Tresor ty, dem Verantwortlichen AI-Dashboard, der Modellüberwachung und unserem branchenführenden Engagement festgelegt, kommerzielle Kunden vor Gerichtsverfahren gegen Urheberrechtsverletzungen zu schützen und zu entschädigen. 

Heute kündigen wir die Erweiterung des Copilot Copyright Commitment an, das jetzt als Customer Copyright Commitment (CCC) bezeichnet wird, für Kunden, die Azure OpenAI Service verwenden.Wenn mehr Kunden mit generativer KI in ihren Organisationen aufbauen, sind sie von dem Potenzial dieser Technologie inspiriert und sind bestrebt, sie extern zu kommerzialisieren. 

Durch die Erweiterung des CCC auf Azure OpenAI Service erweitert Microsoft unser Engagement, unsere kommerziellen Kunden zu verteidigen und für alle nachteiligen Entscheidungen zu zahlen, wenn sie wegen Urheberrechtsverletzung wegen der Verwendung der von Azure OpenAI Service generierten Ausgaben verklagt werden. Dieser Vorteil wird ab dem 1. Dezember 2023 verfügbar sein.

Im Rahmen dieser Erweiterung haben wir neue Dokumentation veröffentlicht, um Azure OpenAI Service-Kunden bei der Implementierung technischer Maßnahmen und anderer bewährter Methoden zu unterstützen, um das Risiko von Verstößen gegen Inhalte zu verringern. Kunden müssen die Dokumentation einhalten, um die Vorteile zu nutzen. Azure OpenAI Service ist ein Entwicklerdienst und verfügt über ein gemeinsames Engagement, verantwortungsbewusst zu bauen. Wir freuen uns darauf, dass Kunden sie nutzen, während sie ihre eigenen Copiloten erstellen.

Ankündigung des Azure AI Advantage-Angebots

Wir möchten Ihr vertrauenswürdiger Partner sein, wenn Sie next-gen, transformative Erfahrungen mit pionierender KI-Technologie, einer tief integrierten Plattform und führenden Cloud-Sicherheit bereitstellen.  

Azure bietet einen vollständigen integrierten Stapel, der für cloudeigene, KI-basierte Anwendungen entwickelt wurde und Ihre Zeit auf dem Markt beschleunigt und Ihnen einen Wettbewerbsvorteil und eine überlegene Leistung bietet. Um auf dieser Reise zu helfen, werden wir gerne ein neues Angebot einführen, um neue und vorhandene Azure AI- und GitHub Copilot-Kunden dabei zu unterstützen, den Wert von Azure AI und Azure Cosmos DB zusammen zu erkennen und sich auf den schnellen Weg zu bringen, KI-basierte Anwendungen zu entwickeln. Weitere Informationen zum Azure AI Advantage-Angebot und zur Registrierung finden Sie hier

Azure Cosmos DB und Azure AI bieten viele Vorteile, einschließlich einer verbesserten Zuverlässigkeit von generativen KI-Anwendungen durch die Geschwindigkeit von Azure Cosmos DB, einer erstklassigen Infrastruktur- und Sicherheitsplattform, um Ihr Unternehmen zu erweitern und gleichzeitig Ihre Daten zu schützen und den Durchsatz nahtlos zu skalieren, wenn Ihre Anwendung wächst.

Azure AI-Dienste und GitHub Copilot-Kunden, die ihre KI-Apps auf Azure Kubernetes Service bereitstellen, sind möglicherweise für zusätzliche Rabatte berechtigt. Sprechen Sie mit Ihrem Microsoft-Vertreter, um mehr zu erfahren. 

Unterstützen aller Entwickler mit KI-basierten Tools

In dieser Woche gibt es bei Ignite so viel im Store, um die Entwicklererfahrung zu verbessern, Zeit zu sparen und die Produktivität zu steigern, während sie intelligente Anwendungen erstellen. Schauen wir uns an, was neu ist.

Updates für Azure Cosmos DB – die Datenbank für die Ära der KI

Damit Entwickler Apps effizienter und mit geringeren Produktionskosten bereitstellen können, teilen wir bei Ignite neue Features in Azure Cosmos DB.

Jetzt in der Vorschau bietet die dynamische Skalierung Entwicklern neue Flexibilität, Datenbanken nach oben oder unten zu skalieren und Kosteneinsparungen für Kunden zu erzielen, insbesondere bei Vorgängen auf der ganzen Welt. Außerdem bringen wir KI tiefer in die Entwicklerumgebung ein und steigern die Produktivität mit der Vorschau von Microsoft Copilot für Azure , um Abfragen natürlicher Sprachen in Azure Cosmos DB zu ermöglichen.  

Bond Brand Loyalty wendete sich an Azure Cosmos DB, um auf mehr als zwei Petabyte transaktionsdaten zu skalieren, während Standard Sicherheit und Datenschutz für ihre eigenen Kunden beibehalten werden. In Azure hat Bond ein modernes Angebot entwickelt, um umfangreiche Sicherheitskonfigurationen zu unterstützen, wodurch die Onboardingzeit für neue Clients um 20 Prozent reduziert wird.

Wir kündigen zwei spannende Updates an, mit denen Entwickler intelligente Apps erstellen können: allgemeine Verfügbarkeit von Azure Cosmos DB für MongoDB vCore und Vektorsuche in Azure Cosmos DB für MongoDB vCore.

Azure Cosmos DB für MongoDB vCore ermöglicht Es Entwicklern, intelligente Anwendungen mit vollständiger Unterstützung für in Azure Cosmos DB gespeicherte MongoDB-Daten zu erstellen, die dank einer umfassenden Integration mit anderen Azure-Diensten Chancen für die App-Entwicklung entsperrt. Das bedeutet, dass Entwickler die Vorteile nativer Azure-Integrationen, geringer Gesamtbetriebskosten (TCO) und einer vertrauten vCore-Architektur genießen können, wenn sie vorhandene Anwendungen migrieren oder neue erstellen. 

Die Vektorsuche in Azure Cosmos DB für MongoDB vCore ermöglicht Entwicklern die nahtlose Integration von Daten, die in Azure Cosmos DB gespeichert sind, in KI-basierte Anwendungen, einschließlich derjenigen, die Azure OpenAI Service-Einbettungen verwenden. Die integrierte Vektorsuche ermöglicht es Ihnen, hochdimensionale Vektordaten effizient zu speichern, zu indexieren und abzufragen und die Notwendigkeit zu vermeiden, die Daten außerhalb Ihrer Azure Cosmos DB-Datenbank zu übertragen.

PostgreSQL-Entwickler haben seit diesem Sommer integrierte Vektorsuche in Azure-Datenbank für PostgreSQL und Azure Cosmos DB für PostgreSQL verwendet. Jetzt können sie die öffentliche Vorschau der Azure AI-Erweiterung in Azure Database for PostgreSQL nutzen, um LLMs und umfangreiche generative KI-Lösungen zu erstellen.

KPMG Australia nutzte die Vektorsuchfunktion, wenn sie sich an Azure OpenAI Service und Azure Cosmos DB wendeten, um ihre eigene Copilot-Anwendung zu erstellen. Die KymChat-App hat mitarbeitern geholfen, die Produktivität zu beschleunigen und den Betrieb zu optimieren. Die Lösung wird auch DEN KUNDEN VON KPMG über einen Accelerator zur Verfügung gestellt, der kymChats Anwendungsfälle, Features und Erkenntnisse kombiniert und Kunden dabei hilft, ihre KI-Reise zu beschleunigen.

Erstellen von cloudeigenen und intelligenten Anwendungen

Intelligente Anwendungen kombinieren die Leistungsfähigkeit von KI- und Clouddaten mit der cloudeigenen App-Entwicklung, um hoch differenzierte digitale Erfahrungen zu schaffen. Die Synergie zwischen cloudeigenen Technologien und KI ist eine greifbare Chance für die Entwicklung traditioneller Anwendungen, die sie intelligent machen und endbenutzern mehr Nutzen bieten. Wir sind bestrebt, Azure Kubernetes Service kontinuierlich zu verbessern, um diese sich entwickelnden Anforderungen von KI für Kunden zu erfüllen, die gerade erst gestartet werden, sowie diejenigen, die fortgeschrittener sind.

Kunden können jetzt spezielle Machine Learning-Workloads wie LLMs auf Azure Kubernetes Service kostengünstiger und mit weniger manueller Konfiguration ausführen. Der Kubernetes KI-Toolchainoperator automatisiert die LLMs-Bereitstellung auf AKS über verfügbare CPU- und GPU-Ressourcen hinweg, indem eine optimale Infrastruktur für das Modell ausgewählt wird. Es ist möglich, die Ableitung auf mehrere virtuelle Computer mit niedrigerer GPU-Anzahl (VMs) zu teilen und so die Anzahl der Azure-Regionen zu erhöhen, in denen Workloads ausgeführt werden können, wodurch Wartezeiten für höhere GPU-Anzahl-VMs und niedrigere Gesamtkosten vermieden werden. Kunden können auch voreingestellte Modelle aus der open Source ausführen, die auf AKS gehostet wird, wodurch die Kosten und die Gesamteinleitungszeit des Diensts erheblich reduziert werden, und gleichzeitig die Notwendigkeit, Dass Teams Experten für die verfügbare Infrastruktur sein müssen. 

Azure Kubernetes Fleet Manager ist jetzt allgemein verfügbar und ermöglicht Multicluster- und skalenbasierte Szenarien für Azure Kubernetes-Dienstcluster. Fleet Manager bietet Administratoren eine globale Skalierung, um die Workloadverteilung über Cluster hinweg zu verwalten und Plattform- und Anwendungsupdates zu vereinfachen, damit Entwickler sicher sein können, dass sie auf der neuesten und sichersten Software ausgeführt werden. 

Darüber hinaus haben wir Gelernte darüber geteilt, wie Technische Organisationen ihren eigenen Entwicklern helfen können, schnell zu beginnen und produktiv zu sein, und gleichzeitig sicherzustellen, dass Systeme sicher, konform und kostengesteuert sind. Microsoft stellt eine Reihe von Technologiebausteinen und Lernmodulen bereit, die Organisationen bei den ersten Schritten bei der Einführung einer Plattform-Engineering-Praxis unterstützen. 

Neue Microsoft Dev Box-Funktionen zur Verbesserung der Entwicklererfahrung

Die Aufrechterhaltung einer Entwicklerarbeitsstation, die Ihre Anwendung erstellen, ausführen und debuggen kann, ist wichtig, um das Tempo der modernen Entwicklungsteams aufrechtzuerhalten. Microsoft Dev Box bietet Entwicklern sichere, einsatzbereite Entwicklerarbeitsstationen für Hybridteams jeder Größe. 

Wir führen neue Vorschaufunktionen ein, um Entwicklungsteams eine genauere Kontrolle über ihre Bilder zu ermöglichen, die Möglichkeit, eine Verbindung mit gehosteten Netzwerken herzustellen, um die Verbindung zu Ihren Ressourcen sicher zu vereinfachen, und Vorlagen, um den Einstieg zu erleichtern. Gepaart mit neuen Funktionen, die in Azure-Bereitstellungsumgebungen verfügbar sind, ist es einfacher denn je, diese Projekte in Azure bereitzustellen.

Aufbauen auf einer zuverlässigen und skalierbaren Grundlage mit .NET 8

.NET 8 ist ein großer Schritt vorwärts, um .NET zu einer der besten Plattformen zu machen, um intelligente cloudneigene Anwendungen zu erstellen, mit der ersten Vorschau von .NET Aspire – einem gemütigten Cloud ready Stack für die Erstellung von observablen, produktionsbereiten, verteilten Cloud nativen Anwendungen. Es enthält kuratierte Komponenten für cloudeigene Grundlagen, einschließlich Telemetrie, Resilienz, Konfiguration und Integritätsprüfungen. Der Stapel erleichtert das Auffinden, Erwerben und Konfigurieren wesentlicher Abhängigkeiten für cloudeigene Anwendungen am 1. und 100. Tag. 

.NET 8 ist auch die schnellste Version von .NET ever, mit Entwicklerproduktivitätsverbesserungen über den Stapel hinweg – unabhängig davon, ob Sie für die Cloud, eine Vollständige Stapel-Web-App, eine Desktop- oder mobile App, die .NET MAUI verklagt, oder ki integrieren, um den nächsten Copilot für Ihre App zu erstellen. Diese sind in Visual Studio verfügbar, die auch heute veröffentlicht werden.  

Azure-Funktionen und Azure-App-Dienst unterstützen .NET 8 sowohl unter Linux als auch unter Windows vollständig, und sowohl azure Kubernetes Service als auch Azure Container Apps unterstützen .NET 8 heute.  

Es gibt keine Grenzen für Ihr Innovationspotenzial mit Azure.

In dieser Woche gibt es so viel Rollout mit Daten, KI und digitalen Anwendungen, damit ich hoffe, dass Sie sich in die virtuelle Ignite-Erfahrung einstimmen und mehr über die vollständige Einführung von Ankündigungen und mehr darüber erfahren, wie Sie Azure für Ihr Unternehmen einsetzen können. 

Die Ankündigungen dieser Woche sind ein Beweis für unser Engagement, kunden dabei zu helfen, den nächsten Schritt der Innovation zu unternehmen und zukunftsfähig zu bleiben. Ich kann nicht warten, um zu sehen, wie Sich Ihre Kreativität und neue Innovationen für Ihr Unternehmen entfalten. 

Sie können diese Ressourcen auschecken, um mehr über alles zu erfahren, was heute freigegeben wurde. Wir hoffen, dass Sie eine tolle Ignite-Woche haben!

 

 

  • Explore

     

    Let us know what you think of Azure and what you would like to see in the future.

     

    Provide feedback

  • Build your cloud computing and Azure skills with free courses by Microsoft Learn.

     

    Explore Azure learning


Join the conversation