Intel und Azure
Erkunden Sie sichere, flexible und leistungsstarke gemeinsame Lösungen von Microsoft und Intel
Microsoft und Intel bauen auf langfristigen Co-Engineering-Maßnahmen auf, um differenzierte Dienste innerhalb von Azure zu ermöglichen. Durch die Kombination von innovativer Software und Diensten mit modernster Hardware liefern die Partnerschaft von Intel und Microsoft hochmoderne Edge-to-Cloud-Lösungen für industrielles IoT und Computer Vision Edge-KI, SAP in Azure, High-Performance Computing (HPC), vertrauliches Computing, Hybrid Cloud, Microsoft SQL Server, KI, Analytics und mehr.
Erfahren Sie mehr über intelligente Edge-to-Cloud-Lösungen mit Intel-basierten Edge-Geräten und Cloudsoftware und -lösungen für Azure.

Volle Hybridfähigkeit
Entwickeln Sie und stellen Sie bereit, wo Sie wollen. Erweitern Sie Azure lokal mithilfe von Azure Stack Hub und Azure Stack HCI mit skalierbaren Intel Xeon®-Prozessoren und Intel Solid State Drives (SSDs). Und verwenden Sie Azure Stack Edge mit skalierbaren Intel Xeon®-Prozessoren, Intel Field-Programmable Gate Arrays (FPGAs) und Intel SSDs für schnelle und lokale Rückschlüsse.

"This collaboration builds upon a long history of innovation to create a strong foundation for delivering best-in-class cloud services for customers and businesses across the enterprise. We continue to work closely together to maximize technology and business opportunities for our customers."
Jason Grebe, Vice President und General Manager, Cloud Platform and Technologies Group, Intel
Intel-basierte Azure Virtual Machines
Unabhängig davon, ob Sie Unterstützung für eine SAP-Unternehmensumgebung oder unternehmenskritische Leistung für Windows Server und SQL Server benötigen, hier finden Sie Unterstützung für eine breite Palette von Intel-basierten Azure-Workloads. Durchsuchen Sie für Compute-intensive Anforderungen wie KI, maschinelles Lernen und andere HPC-Workloads ein breites Portfolio von Intel Xeon®-basierten Azure-VMs – einschließlich diejenigen mit Intel Xeon® Platinum 8370C (Ice Lake)-Prozessoren der 3. Generation.
Zielworkloads | Azure-VM-Instanztyp | Intel-Prozessor(en) |
---|---|---|
Dev/Test, Webserver mit geringem Datenverkehr, Coderepositorys und andere | A-Serie auf Einstiegsebene | Siehe die VM-Dokumentation zur Av2-Serie |
Anwendungen, die nicht ständig die vollständige CPU-Leistung erfordern | Burstfähige B-Serie | Siehe die Dokumentation zu burstfähigen VMs der B-Serie |
E-Commerce-Systeme, Desktopvirtualisierung, CRM, Anwendungsserver und andere | Universelle D-Serie | Siehe VM-Dokumentation zur universellen D-Serie |
Blockchain Secure Enclaves | Confidential Computing DC-Serie | Siehe die DCsv3-VM-Dokumentation |
Speicherintensive Unternehmens-Apps, SAP HANA-Workloads, große relationale Datenbanken | Speicheroptimierte E- und M-Serie | Siehe VM-Dokumentation der E- und M-Serie |
Compute-intensive Workloads, EDA, Netzwerkgeräte, Batchprozesse und andere | Compute-optimierte F-Serie | Siehe die VM-Dokumentation zur F-Serie |
Hochleistungscomputing | Big Compute, H-Serie | Xeon® E5-2667 v3 |
Workloads
SAP in Azure
SAP in Azure bietet eine hochleistungsfähige, skalierbare Infrastruktur für SAP HANA – mit VMs, die bis zu 12 TB RAM pro VM bieten, und speziell entwickelten Bare-Metal-Instanzen mit bis zu 24 TB RAM, unterstützt von Intel Xeon®-Prozessoren. Richten Sie in wenigen Minuten extrem skalierbare SAP HANA-zertifizierte Systeme in Azure ein, über die vertrauenswürdige globale Azure-Infrastruktur in über 60 Regionen.
HPC-Workloads in Azure
Verbessern Sie Leistung, MPI-Skalierbarkeit und Kosteneffizienz für HPC-Workloads in Azure. VMs der Azure HC-Serie, unterstützt von skalierbaren Intel Xeon®-Prozessoren und AVX-optimierten Anwendungen, ermöglichen Hochleistungscomputing, das für groß angelegte, rechenintensive Anwendungen optimiert ist.
Zusätzliche Ressourcen:
- Lesen Sie die HPC-Dokumentation für VMs der Azure HC-Serie
- Lesen Sie den Artikel über die modernste HPC-Technologie mit VMs der Azure HC-Serie.
- Erfahren Sie mehr über FPGAs (Field-Programmable Gate Arrays) und die Bereitstellung von Modellen für maschinelles Lernen für FPGAs mithilfe von Azure Machine Learning
Azure Confidential Computing
Confidential Computing in Azure ermöglicht neue Szenarien, z. B. maschinelles Lernen mit mehreren Teilnehmern, trägt zur Stärkung der Sicherheit für Blockchain bei und verbessert die immer verschlüsselte Technologie. Basierend auf Intel Software Guard Extensions (Intel SGX) bietet es zusätzlichen Schutz für Daten, während sie in der Cloud verarbeitet werden. Intel SGX ist ein Tool, mit dem Entwickler ihre vertraulichsten Daten und den Anwendungscode im Arbeitsspeicher innerhalb einer verschlüsselten Enklave besser schützen können, die sogar vor dem Cloudanbieter und Systemprozessen auf unterer Ebene geschützt ist.
KI in Azure
Beschleunigen Sie den End-to-Learning-Lebenszyklus für maschinelles Lernen mit einem Dienst auf Unternehmensniveau, um das Erstellen, Trainieren und Bereitstellen von Modellen für maschinelles Lernen zu vereinfachen. Erstellen und trainieren Sie Modelle für maschinelles Lernen, und stellen Sie diese schnell und kostengünstig bereit mit Azure Machine Learning und leistungsstarken Intel CPU- und FPGA-Computeressourcen. Erstellen und beschleunigen Sie Modellrückschlüsse auf Intel-Hardware mithilfe von Azure Machine Learning und ONNX-Runtime, einem Open-Source-Projekt, das von Microsoft gegründet und von Intel unterstützt wird.
Die neuesten Innovationen für Ihre Lösungen
Erhalten Sie mehr Geschwindigkeit, Zuverlässigkeit und intelligente Funktionen, um Ihre Lösungen schneller auf den Markt zu bringen. Nutzen Sie dazu die gemeinsam entwickelte Architektur und die Clouddienste aus der Partnerschaf zwischen Azure und Intel. Profitieren Sie außerdem von Flexibilität in Bezug auf Größe, Leistung und Kosten für alle Workloads – Intel Xeon® -Prozessoren sind in allen Azure Virtual Machines verfügbar.
Erkunden Sie das datenorientierte Portfolio von Intel mit:
- Intel Xeon®-Prozessoren für Azure Compute und Storage
- Persistenter Intel OptaneTM DC-Arbeitsspeicher
- Intel Field-Programmable Gate Arrays (FPGAs)
- Intel Ethernet-Produkte
- Intel SSDs (Solid-State Drives)
- Intel Silicon Photonics 100G PSM4
- Intel-Open Source-Frameworks und -Bibliotheken für Machine Learning
- Intel Clear Linux-Projekt

Modernisieren Ihrer unternehmenskritischen Workloads
Unterstützen Sie Innovationen innerhalb Ihrer Organisation, sorgen Sie dafür, dass Ihre Kunden zufrieden sind, und bleiben Sie den Wettbewerbern voraus. Erfahren Sie, wie Sie mit der Migration Ihrer wichtigsten Systeme und Anwendungen in die Cloud beginnen können – mit bewährten Empfehlungen und Methoden direkt von Microsoft und Intel.
Intel im Azure Marketplace
Sehen Sie sich andere Partnertechnologien an, die von Intel unterstützt werden.
BigDL erleichtert die Entwicklung von Deep Learning-Anwendungen als standardmäßige Spark-Programme unter Verwendung von Scala oder Python. Anschließend können diese Anwendungen ohne teure, spezialisierte Hardware auf vorhandenen Spark- oder Hadoop-Clustern ausgeführt werden. Apache Spark ermöglicht Anwendungen die nahtlose Skalierung im großem Umfang über Prozessor-basierte Intel Xeon®-Knoten und liefert außergewöhnliche Leistung über die Prozessor-basierte Xeon®-Infrastruktur.
Analytics Zoo ist ein Open-Source-Projekt, das Spark-, TensorFlow-, Keras- und BigDL-Programme in einer integrierten Pipeline nahtlos vereint. Die Pipeline kann transparent auf einen umfangreichen Hadoop-/Spark-Cluster aufskaliert werden, um verteiltes Training oder Rückschlussfunktionen auszuführen.
Mit diesem Release können Entwickler schnell Prototypen erstellen, indem sie die Komplexität der Integration mehrerer Softwarekomponenten reduzieren. Der Stapel enthält hochgradig optimierte Softwarekomponenten im gesamten Betriebssystem (Clear Linux-Betriebssystem), ein Deep Learning-Framework (TensorFlow und andere), Deep Learning-Bibliotheken (Intel Math Kernel-Bibliothek für Deep Neural Networks) und andere Softwarekomponenten.
Diese Data Science-VM ist eine Erweiterung der Ubuntu-Version von Microsoft Data Science-VMs und wird mit Python-Umgebungen geliefert, die für Deep Learning auf Intel Xeon®-Prozessoren optimiert sind. Diese Umgebungen umfassen Open-Source-Deep Learning-Frameworks mit einem Intel MKL-DNN-Back-End für optimale Leistung bei Xeon®-Prozessoren. Diese Umgebungen erfordern keine Änderungen am bestehenden Code und beschleunigen Deep Learning-Training und Rückschlüsse.
Partner: Cloudbusiness ausbauen
Gewinnen Sie ein tieferes Verständnis der Cloudanforderungen von Kunden, identifizieren Sie Möglichkeiten, mit Cloudlösungen rentabler zu sein, und erhalten Sie Marketing- und technischen Support, um Ihren Erfolg zu steigern. Das Cloud Solution Provider-Programm bietet Ihnen die Bausteine, um Ihr Cloudgeschäft zu erweitern – einschließlich technischer Befähigung, Mittel zur Nachfragegenerierung und Go-to-Market-Incentives.