Azure Machine Learning – Preise

Machine-Learning-Dienst für Unternehmen zur schnelleren Erstellung und Bereitstellung von Modellen

Stellen Sie Entwicklern und Data Scientists zahlreiche Funktionen zur Verfügung, mit denen sie in kürzester Zeit Machine Learning-Modelle erstellen, trainieren und bereitstellen können. Verringern Sie Ihre Time-to-Market, und optimieren Sie die Zusammenarbeit zwischen Teams durch branchenführendes MLOps: DevOps für Machine Learning. Schaffen Sie Innovationen mithilfe einer sicheren und vertrauenswürdigen Plattform, die die Erstellung verantwortungsbewusster KI-Lösungen fördert.

Preisstufen

Azure Machine Learning gibt es in zwei Editionen, die auf Ihre Machine Learning-Anforderungen zugeschnitten sind: Enterprise und Basic. Dadurch ist es für Entwickler und Data-Scientists noch einfacher, den „End-to-End“-Lebenszyklus für Machine Learning abzukürzen. Die Basic-Edition ist bereits allgemein verfügbar. Die Enterprise-Edition befindet sich derzeit in der Vorschau, sodass vorläufig kein ML-Zuschlag berechnet wird. Kunden tragen weiterhin die Kosten, die durch Azure-Ressourcen sowohl in Basic-, als auch in Enterprise-Arbeitsbereichen entstehen (auch in der Vorschauphase). Weitere Informationen zu Compute-Preisen finden Sie in der VM-Preisübersicht.

In der Basic-Edition wird für das Training oder für Rückschlüsse in Azure-Ressourcen kein ML-Zuschlag berechnet. Sobald die Enterprise-Edition allgemein verfügbar ist, wird ein Machine Learning-Zuschlag (für Training und Rückschlüsse) berechnet, der anhand der folgenden Preise ermittelt werden kann.

Azure Machine Learning-Editionen

Merkmale Basic Enterprise
Für die Open Source-Entwicklung auf Cloudniveau mit Code First-Ansatz Basic- + Benutzeroberflächenfunktionen + sichere und umfassende Verwaltung des Machine Learning-Lebenszyklus für alle Kenntnisstufen
Automatisiertes maschinelles Lernen
Erstellen und Ausführen von Experimenten in Notebooks Verfügbar Verfügbar
Erstellen und Ausführen von Experimenten in Studio Web Experience Nicht verfügbar Verfügbar
Branchenführende Vorhersagefunktionen Nicht verfügbar Verfügbar
Unterstützung für Deep Learning und weitere fortgeschrittene Lernmethoden Nicht verfügbar Verfügbar
Unterstützung umfangreicher Daten (bis zu 100 GB) Nicht verfügbar Verfügbar
Interpretierbarkeit in der Benutzeroberfläche Nicht verfügbar Verfügbar
Machine Learning-Pipelines
Erstellen, Ausführen und Veröffentlichen von Pipelines über das Azure ML SDK Verfügbar Verfügbar
Erstellen von Pipelineendpunkten über das Azure ML SDK Verfügbar Verfügbar
Erstellen, Bearbeiten und Löschen geplanter Pipelinedurchläufe über das Azure ML SDK Verfügbar Verfügbar
Erstellen und Veröffentlichen benutzerdefinierter Module über das Azure ML SDK Verfügbar Verfügbar
Anzeigen von Details zu Pipelinedurchläufen in Studio Verfügbar Verfügbar
Erstellen, Ausführen, Visualisieren und Veröffentlichen von Pipelines in Azure ML Designer Nicht verfügbar Verfügbar
Erstellen von Pipelineendpunkten in Azure ML Designer Nicht verfügbar Verfügbar
Erstellen, Bearbeiten und Löschen geplanter Pipelinedurchläufe in Azure ML Designer Nicht verfügbar Verfügbar
Erstellen und Veröffentlichen benutzerdefinierter Module in Azure ML Designer Nicht verfügbar Verfügbar
Integrierte Notebooks
Arbeitsbereichs-Notebook und Dateifreigabe Verfügbar Verfügbar
Unterstützung für R und Python Verfügbar Verfügbar
Zusammenarbeit über Notebooks Verfügbar Verfügbar
Compute-Instanz
Verwaltete Compute-Instanzen für integrierte Notebooks Verfügbar Verfügbar
Freigeben von Compute-Instanzen Verfügbar Verfügbar
Gemeinsames Debuggen von Modellen Verfügbar Verfügbar
Jupyter, JupyterLab, Visual Studio Code Verfügbar Verfügbar
Virtual Network (VNet)-Unterstützung für die Bereitstellung Verfügbar Verfügbar
SDK-Unterstützung
Unterstützung für das R und Python SDK Verfügbar Verfügbar
Sicherheit
Unterstützung der rollenbasierten Zugriffssteuerung Verfügbar Verfügbar
Virtual Network (VNet)-Unterstützung für das Training Verfügbar Verfügbar
Virtual Network (VNet)-Unterstützung für Rückschlüsse Verfügbar Verfügbar
Bewerten der Endpunktauthentifizierung Verfügbar Verfügbar
Compute
Arbeitsbereichsübergreifende Kapazitätsnutzung und Kontingente Nicht verfügbar Verfügbar
Daten für Machine Learning
Erstellen, Anzeigen oder Bearbeiten von Datasets und Datenspeichern über das SDK Verfügbar Verfügbar
Erstellen, Anzeigen oder Bearbeiten von Datasets und Datenspeichern über die Benutzeroberfläche Verfügbar Verfügbar
Anzeigen, Bearbeiten oder Löschen der Dataset-Driftüberwachung über das SDK Verfügbar Verfügbar
Anzeigen, Bearbeiten oder Löschen der Dataset-Driftüberwachung über die Benutzeroberfläche Nicht verfügbar Verfügbar
MLOps
Erstellen von ML-Pipelines im SDK Verfügbar Verfügbar
Batchrückschluss Verfügbar Verfügbar
Profilerstellung für Modelle Verfügbar Verfügbar
Interpretierbarkeit in der Benutzeroberfläche Nicht verfügbar Verfügbar
Bezeichnung
Bezeichnung für Projektverwaltungsportal Verfügbar Verfügbar
Bezeichner für Portal Verfügbar Verfügbar
Bezeichnung für Mitarbeiter im privaten Sektor Verfügbar Verfügbar

Preisübersicht

In der folgenden Tabelle wird der ML-Zuschlag für ein breites Spektrum an VMs erläutert. Weitere Details erhalten Sie, indem Sie unten die Region und weitere Informationen auswählen, um die verfügbaren VMs mit den betreffenden Preisen anzuzeigen.

Edition CPU (Allgemein, Compute-optimiert, Arbeitsspeicheroptimiert, Speicheroptimiert) GPU
Basic Kein ML-Zuschlag, VM-Preise nur für Training und Rückschlüsse Kein ML-Zuschlag, VM-Preise nur für Training und Rückschlüsse
Enterprise $- ML-Zuschlag pro Kernstunde Ab $-+ ML-Zuschlag pro Kernstunde

Allgemein

Für Websites, kleine bis mittlere Datenbanken und andere herkömmliche Anwendungen

Bs-Serie

Instanz vCPU(s) RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
B1S 1 1 GiB $- $- $- $- $- $- $- $- $-
B2S 2 4 GiB $- $- $- $- $- $- $- $- $-
B1LS 1 0,5 GiB $- $- $- $- $- $- $- $- $-
B1MS 1 2 GiB $- $- $- $- $- $- $- $- $-
B2MS 2 8 GiB $- $- $- $- $- $- $- $- $-
B4MS 4 16 GiB $- $- $- $- $- $- $- $- $-
B8MS 8 32 GiB $- $- $- $- $- $- $- $- $-
B12MS 12 48 GiB $- $- $- $- $- $- $- $- $-
B16MS 16 64 GiB $- $- $- $- $- $- $- $- $-
B20MS 20 80 GiB $- $- $- $- $- $- $- $- $-

Av2 Standard

Instanz vCPU(s) RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
A1 v2 1 2 GiB $- $- $- $- $- – – Leer – – Leer
A2 v2 2 4 GiB $- $- $- $- $- – – Leer – – Leer
A4 v2 4 8 GiB $- $- $- $- $- – – Leer – – Leer
A8 v2 8 16 GiB $- $- $- $- $- – – Leer – – Leer
A2m v2 2 16 GiB $- $- $- $- $- – – Leer – – Leer
A4m v2 4 32 GiB $- $- $- $- $- – – Leer – – Leer
A8m v2 8 64 GiB $- $- $- $- $- – – Leer – – Leer

Reservierte VM-Instanzen sind für die Av2-Serie derzeit nicht verfügbar.

D2-64 v3: neueste Generation

Instanz vCPU(s) RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
D2 v3 2 8 GiB $- $- $- $- $- $- $- $- $-
D4 v3 4 16 GiB $- $- $- $- $- $- $- $- $-
D8 v3 8 32 GiB $- $- $- $- $- $- $- $- $-
D16 v3 16 64 GiB $- $- $- $- $- $- $- $- $-
D32 v3 32 128 GiB $- $- $- $- $- $- $- $- $-
D48 v3 48 192 GiB $- $- $- $- $- $- $- $- $-
D64 v3 64 256 GiB $- $- $- $- $- $- $- $- $-

D2s-64s v3: neueste Generation

Instanz vCPU(s) RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
D2s v3 2 8 GiB $- $- $- $- $- $- $- $- $-
D4s v3 4 16 GiB $- $- $- $- $- $- $- $- $-
D8s v3 8 32 GiB $- $- $- $- $- $- $- $- $-
D16s v3 16 64 GiB $- $- $- $- $- $- $- $- $-
D32s v3 32 128 GiB $- $- $- $- $- $- $- $- $-
D48s v3 48 192 GiB $- $- $- $- $- $- $- $- $-
D64s v3 64 256 GiB $- $- $- $- $- $- $- $- $-

D1-5 v2

Instanz vCPU(s) RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
D1 v2 1 3,5 GiB $- $- $- $- $- $- $- $- $-
D2 v2 2 7 GiB $- $- $- $- $- $- $- $- $-
D3 v2 4 14 GiB $- $- $- $- $- $- $- $- $-
D4 v2 8 28 GiB $- $- $- $- $- $- $- $- $-
D5 v2 16 56 GiB $- $- $- $- $- $- $- $- $-

DS1-S5 v2

Instanz vCPU(s) RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
DS1 v2 1 3,5 GiB $- $- $- $- $- $- $- $- $-
DS2 v2 2 7 GiB $- $- $- $- $- $- $- $- $-
DS3 v2 4 14 GiB $- $- $- $- $- $- $- $- $-
DS4 v2 8 28 GiB $- $- $- $- $- $- $- $- $-
DS5 v2 16 56 GiB $- $- $- $- $- $- $- $- $-

Computeoptimiert

Hohes Verhältnis von CPU zu Arbeitsspeicher. Ideal für Webserver, Network Appliances, Stapelverarbeitungsvorgänge und Anwendungsserver mit mittlerer Auslastung.

Fsv2-Serie

Instanz vCPU(s) RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
F2s v2 2 4 GiB $- $- $- $- $- $- $- $- $-
F4s v2 4 8 GiB $- $- $- $- $- $- $- $- $-
F8s v2 8 16 GiB $- $- $- $- $- $- $- $- $-
F16s v2 16 32 GiB $- $- $- $- $- $- $- $- $-
F32s v2 32 64 GiB $- $- $- $- $- $- $- $- $-
F48s v2 48 96 GiB $- $- $- $- $- $- $- $- $-
F64s v2 64 128 GiB $- $- $- $- $- $- $- $- $-
F72s v2 72 144 GiB $- $- $- $- $- $- $- $- $-

F-Serie

Instanz Kern RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
F1 1 2 GiB $- $- $- $- $- $- $- $- $-
F2 2 4 GiB $- $- $- $- $- $- $- $- $-
F4 4 8 GiB $- $- $- $- $- $- $- $- $-
F8 8 16 GiB $- $- $- $- $- $- $- $- $-
F16 16 32 GiB $- $- $- $- $- $- $- $- $-

Arbeitsspeicheroptimiert

Hohes Verhältnis von Speicher zu Kern. Hervorragend geeignet für relationale Datenbankserver, mittlere bis große Caches und In-Memory-Analysen.

E2-64 v3: neueste Generation

Instanz vCPU(s) RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
E2 v3 2 16 GiB $- $- $- $- $- $- $- $- $-
E4 v3 4 32 GiB $- $- $- $- $- $- $- $- $-
E8 v3 8 64 GiB $- $- $- $- $- $- $- $- $-
E16 v3 16 128 GiB $- $- $- $- $- $- $- $- $-
E20 v3 20 160 GiB $- $- $- $- $- $- $- $- $-
E32 v3 32 256 GiB $- $- $- $- $- $- $- $- $-
E48 v3 48 384 GiB $- $- $- $- $- $- $- $- $-
E64i v3 1 64 432 GiB $- $- $- $- $- $- $- $- $-
E64 v3 64 432 GiB $- $- $- $- $- $- $- $- $-
1 Azure Compute bietet VM-Größen, die für einen bestimmten Hardwaretyp isoliert und für einen einzelnen Kunden bestimmt sind. Diese VM-Größen eignen sich am besten für Workloads, die ein hohes Maß an Isolation von anderen Kunden erfordern, wenn es um Workloads mit Elementen wie Compliance und gesetzlichen Anforderungen geht.

E2s-64s v3: neueste Generation

Instanz vCPU(s) RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
E2s v3 2 16 GiB $- $- $- $- $- $- $- $- $-
E4s v3 4 32 GiB $- $- $- $- $- $- $- $- $-
E8s v3 8 64 GiB $- $- $- $- $- $- $- $- $-
E16s v3 16 128 GiB $- $- $- $- $- $- $- $- $-
E20s v3 20 160 GiB $- $- $- $- $- $- $- $- $-
E32s v3 32 256 GiB $- $- $- $- $- $- $- $- $-
E48s v3 48 384 GiB $- $- $- $- $- $- $- $- $-
E64is v3 1 64 432 GiB $- $- $- $- $- $- $- $- $-
E64s v3 64 432 GiB $- $- $- $- $- $- $- $- $-
1 Azure Compute bietet VM-Größen, die für einen bestimmten Hardwaretyp isoliert und für einen einzelnen Kunden bestimmt sind. Diese VM-Größen eignen sich am besten für Workloads, die ein hohes Maß an Isolation von anderen Kunden erfordern, wenn es um Workloads mit Elementen wie Compliance und gesetzlichen Anforderungen geht.

D11-15 v2

Instanz vCPU(s) RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
D11 v2 2 14 GiB $- $- $- $- $- $- $- $- $-
D12 v2 4 28 GiB $- $- $- $- $- $- $- $- $-
D13 v2 8 56 GiB $- $- $- $- $- $- $- $- $-
D14 v2 16 112 GiB $- $- $- $- $- $- $- $- $-
D15 v2 20 140 GiB $- $- $- $- $- $- $- $- $-
D15i v2 20 140 GiB $- $- $- $- $- $- $- Nicht verfügbar

DS11-S15 v2

Instanz vCPU(s) RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
DS11 v2 2 14 GiB $- $- $- $- $- $- $- $- $-
DS12 v2 4 28 GiB $- $- $- $- $- $- $- $- $-
DS13 v2 8 56 GiB $- $- $- $- $- $- $- $- $-
DS14 v2 16 112 GiB $- $- $- $- $- $- $- $- $-
DS15 v2 20 140 GiB $- $- $- $- $- $- $- $- $-
DS15i v2 20 140 GiB $- $- $- $- $- $- $- Nicht verfügbar

G-Reihe

Instanz Kern RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
G1 2 28 GiB $- $- $- $- $- – – Leer – – Leer
G2 4 56 GiB $- $- $- $- $- – – Leer – – Leer
G3 8 112 GiB $- $- $- $- $- – – Leer – – Leer
G4 16 224 GiB $- $- $- $- $- – – Leer – – Leer
G5 32 448 GiB $- $- $- $- $- – – Leer – – Leer

Reservierte VM-Instanzen sind für die G-Serie derzeit nicht verfügbar.

M-Serie

Instanz vCPU(s) RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
M64 64 1.024 GiB $- $- $- $- $- $- $- $- $-
M32ls 32 256 GiB $- $- $- $- $- $- $- $- $-
M64ls 64 512 GiB $- $- $- $- $- $- $- $- $-
M64m 64 1.792 GiB $- $- $- $- $- $- $- $- $-
M128m 128 3.892 GiB $- $- $- $- $- $- $- $- $-
M8ms 8 219 GiB $- $- $- $- $- $- $- $- $-
M16ms 16 438 GiB $- $- $- $- $- $- $- $- $-
M32ms 32 875 GiB $- $- $- $- $- $- $- $- $-
M64ms 64 1.792 GiB $- $- $- $- $- $- $- $- $-
M128ms 128 3.892 GiB $- $- $- $- $- $- $- $- $-
M64s 64 1.024 GiB $- $- $- $- $- $- $- $- $-
M128 128 2.048 GiB $- $- $- $- $- $- $- $- $-
M128s 128 2.048 GiB $- $- $- $- $- $- $- $- $-
M32ts 32 192 GiB $- $- $- $- $- $- $- $- $-

In hohem Maß arbeitsspeicheroptimiert

Instanz Aktive vCPU(s) /
Zugrunde liegende vCPU(s)
RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
DS11-1 v2 1 / 2 14 GiB $- $- $- $- $- $- $- $- $-
DS12-1 v2 1 / 4 28 GiB $- $- $- $- $- $- $- $- $-
DS12-2 v2 2 / 4 28 GiB $- $- $- $- $- $- $- $- $-
DS13-2 v2 2 / 8 56 GiB $- $- $- $- $- $- $- $- $-
DS13-4 v2 4 / 8 56 GiB $- $- $- $- $- $- $- $- $-
DS14-4 v2 4 / 16 112 GiB $- $- $- $- $- $- $- $- $-
DS14-8 v2 8 / 16 112 GiB $- $- $- $- $- $- $- $- $-
E4-2s v3 2 / 4 32 GiB $- $- $- $- $- $- $- $- $-
E8-2s v3 2 / 8 64 GiB $- $- $- $- $- $- $- $- $-
E8-4s v3 4 / 8 64 GiB $- $- $- $- $- $- $- $- $-
E16-4s v3 4 / 16 128 GiB $- $- $- $- $- $- $- $- $-
E16-8s v3 8 / 16 128 GiB $- $- $- $- $- $- $- $- $-
E32-8s v3 8 / 32 256 GiB $- $- $- $- $- $- $- $- $-
E32-16s v3 16 / 32 256 GiB $- $- $- $- $- $- $- $- $-
E64-16s v3 16 / 64 432 GiB $- $- $- $- $- $- $- $- $-
E64-32s v3 32 / 64 432 GiB $- $- $- $- $- $- $- $- $-
Gs4-4 4 / 16 224 GiB $- $- $- $- $- Nicht verfügbar Nicht verfügbar
Gs4-8 8 / 16 224 GiB $- $- $- $- $- Nicht verfügbar Nicht verfügbar
Gs5-8 8 / 32 448 GiB $- $- $- $- $- Nicht verfügbar Nicht verfügbar
Gs5-16 16 / 32 448 GiB $- $- $- $- $- Nicht verfügbar Nicht verfügbar
M16-8ms 8 / 16 438 GiB $- $- $- $- $- $- $- $- $-
M64-16ms 16 / 64 1.750 GiB $- $- $- $- $- $- $- $- $-
M64-32ms 32 / 64 1.750 GiB $- $- $- $- $- $- $- $- $-
M128-32ms 32 / 128 3.800 GiB $- $- $- $- $- $- $- $- $-
M128-64ms 64 / 128 3.800 GiB $- $- $- $- $- $- $- $- $-

Speicheroptimiert

Datenträgerdurchsatz und -E/A auf hohem Niveau. Ideal für Big Data sowie SQL- und NoSQL-Datenbanken.

Ls-Serie

Instanz Kern RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
L4s 4 32 GiB $- $- $- $- $- $- $- $- $-
L8s 8 64 GiB $- $- $- $- $- $- $- $- $-
L16s 16 128 GiB $- $- $- $- $- $- $- $- $-
L32s 32 256 GiB $- $- $- $- $- $- $- $- $-

GPU

Spezialisierte virtuelle Computer für intensives Grafikrendering und intensive Videobearbeitung (verfügbar mit einer oder mehreren GPUs).

NC-Serie

Instanz Kern RAM GPU
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
NC6 6 56 GiB 1X K80 $- $- $- $- $- $- $- $- $-
NC12 12 112 GiB 2X K80 $- $- $- $- $- $- $- $- $-
NC24 24 224 GiB 4X K80 $- $- $- $- $- $- $- $- $-
NC24r 24 224 GiB 4X K80 $- $- $- $- $- $- $- $- $-

NCsv2-Serie

Instanz Kern RAM GPU
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
NC6s v2 6 112 GiB 1X P100 $- $- $- $- $- $- $- $- $-
NC12s v2 12 224 GiB 2X P100 $- $- $- $- $- $- $- $- $-
NC24s v2 24 448 GiB 4X P100 $- $- $- $- $- $- $- $- $-
NC24rs v2 24 448 GiB 4X P100 $- $- $- $- $- $- $- $- $-

NCsv3-Serie

Instanz Kern RAM GPU
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
NC6s v3 6 112 GiB 1X V100 $- $- $- $- $- $- $- $- $-
NC12s v3 12 224 GiB 2X V100 $- $- $- $- $- $- $- $- $-
NC24s v3 24 448 GiB 4X V100 $- $- $- $- $- $- $- $- $-
NC24rs v3 24 448 GiB 4X V100 $- $- $- $- $- $- $- $- $-

NV-Serie

Instanz Kern RAM GPU
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
NV6 6 56 GiB 1X M60 $- $- $- $- $- $- $- $- $-
NV12 12 112 GiB 2X M60