Azure Machine Learning-Dienst – Preise

Erstellen, Trainieren und Bereitstellen von Modellen – von der Cloud bis zum Edge

Erstellen und trainieren Sie Machine Learning-Modelle noch schneller, und führen Sie mit Azure Machine Learning Services ohne großen Aufwand Bereitstellungen in der Cloud oder am Edge aus.

Nutzen Sie die neuesten Open Source-Innovationen wie TensorFlow, PyTorch oder Jupyter. Experimentieren Sie lokal, und verwenden Sie dann große GPU-Cluster in der Cloud, um schnell zentral hochzuskalieren oder zu erweitern. Beschleunigen Sie Data Science durch automatisiertes Machine Learning und Hyperparameteroptimierung. Beobachten Sie Experimente, verwalten Sie Modelle, und führen Sie Bereitstellungen einfach mit integrierten CI/CD-Tools aus.

Preisübersicht

Die unten aufgeführten Preise gelten für das Bereitstellen von Machine Learning-Modellen mit AKS (inklusive Kosten für Computeressourcen). Bezahlen Sie nur für die zugrunde liegenden Computeressourcen zum Trainieren Ihrer Modelle mit dem Machine Learning-Dienst. In der VM-Preisübersicht finden Sie weitere Informationen zu Computepreisen.

Hinweis: Die Verbrauchseinheiten des Azure Machine Learning-Diensts können bis auf Weiteres kostenlos genutzt werden. Für das Computing wird Kunden weiterhin eine Gebühr berechnet.

Allgemein

Ausgewogenes Verhältnis von CPU zu Arbeitsspeicher. Ideal für Tests und Entwicklung, kleine bis mittlere Datenbanken sowie Webserver mit geringer bis mittlerer Auslastung.

B-Serie

Instanz vCPU RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
B1S 1 1 GiB $- $- $- $- $-
B2S 2 4 GiB $- $- $- $- $-
B1LS 1 0,5 GiB $- $- $- $- $-
B1MS 1 2 GiB $- $- $- $- $-
B2MS 2 8 GiB $- $- $- $- $-
B4MS 4 16 GiB $- $- $- $- $-
B8MS 8 32 GiB $- $- $- $- $-

Av2 Standard

Instanz vCPU RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
A1 v2 1 2 GiB $- $- $- – – Leer – – Leer
A2 v2 2 4 GiB $- $- $- – – Leer – – Leer
A4 v2 4 8 GiB $- $- $- – – Leer – – Leer
A8 v2 8 16 GiB $- $- $- – – Leer – – Leer
A2m v2 2 16 GiB $- $- $- – – Leer – – Leer
A4m v2 4 32 GiB $- $- $- – – Leer – – Leer
A8m v2 8 64 GiB $- $- $- – – Leer – – Leer

Reservierte VM-Instanzen sind für die Av2-Serie derzeit nicht verfügbar.

D2-64 v3: neueste Generation

Instanz vCPU RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
D2 v3 2 8 GiB $- $- $- $- $-
D4 v3 4 16 GiB $- $- $- $- $-
D8 v3 8 32 GiB $- $- $- $- $-
D16 v3 16 64 GiB $- $- $- $- $-
D32 v3 32 128 GiB $- $- $- $- $-
D64 v3 64 256 GiB $- $- $- $- $-

D2s-64s v3: neueste Generation

Instanz vCPU RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
D2s v3 2 8 GiB $- $- $- $- $-
D4s v3 4 16 GiB $- $- $- $- $-
D8s v3 8 32 GiB $- $- $- $- $-
D16s v3 16 64 GiB $- $- $- $- $-
D32s v3 32 128 GiB $- $- $- $- $-
D64s v3 64 256 GiB $- $- $- $- $-

D1-5 v2

Instanz vCPU RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
D1 v2 1 3,5 GiB $- $- $- $- $-
D2 v2 2 7 GiB $- $- $- $- $-
D3 v2 4 14 GiB $- $- $- $- $-
D4 v2 8 28 GiB $- $- $- $- $-
D5 v2 16 56 GiB $- $- $- $- $-

DS1-S5 v2

Instanz vCPU RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
DS1 v2 1 3,5 GiB $- $- $- $- $-
DS2 v2 2 7 GiB $- $- $- $- $-
DS3 v2 4 14 GiB $- $- $- $- $-
DS4 v2 8 28 GiB $- $- $- $- $-
DS5 v2 16 56 GiB $- $- $- $- $-

Computeoptimiert

Hohes Verhältnis von CPU zu Arbeitsspeicher. Ideal für Webserver, Network Appliances, Stapelverarbeitungsvorgänge und Anwendungsserver mit mittlerer Auslastung.

Fsv2-Serie

Instanz vCPU RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
F2s v2 2 4 GiB $- $- $- $- $-
F4s v2 4 8 GiB $- $- $- $- $-
F8s v2 8 16 GiB $- $- $- $- $-
F16s v2 16 32 GiB $- $- $- $- $-
F32s v2 32 64 GiB $- $- $- $- $-
F64s v2 64 128 GiB $- $- $- $- $-
F72s v2 72 144 GiB $- $- $- $- $-

F-Serie

Instanz Kern RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
F1 1 2 GiB $- $- $- $- $-
F2 2 4 GiB $- $- $- $- $-
F4 4 8 GiB $- $- $- $- $-
F8 8 16 GiB $- $- $- $- $-
F16 16 32 GiB $- $- $- $- $-

Arbeitsspeicheroptimiert

Hohes Verhältnis von Speicher zu Kern. Hervorragend geeignet für relationale Datenbankserver, mittlere bis große Caches und In-Memory-Analysen.

E2-64 v3: neueste Generation

Instanz vCPU RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
E2 v3 2 16 GiB $- $- $- $- $-
E4 v3 4 32 GiB $- $- $- $- $-
E8 v3 8 64 GiB $- $- $- $- $-
E16 v3 16 128 GiB $- $- $- $- $-
E20 v3 20 160 GiB $- $- $- $- $-
E32 v3 32 256 GiB $- $- $- $- $-
E64i v3 1 64 432 GiB $- $- $- $- Nicht verfügbar
E64 v3 64 432 GiB $- $- $- $- $-
1 Azure Compute bietet VM-Größen, die für einen bestimmten Hardwaretyp isoliert und für einen einzelnen Kunden bestimmt sind. Diese VM-Größen eignen sich am besten für Workloads, die ein hohes Maß an Isolation von anderen Kunden erfordern, wenn es um Workloads mit Elementen wie Compliance und gesetzlichen Anforderungen geht.

E2s-64s v3: neueste Generation

Instanz vCPU RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
E2s v3 2 16 GiB $- $- $- $- $-
E4s v3 4 32 GiB $- $- $- $- $-
E8s v3 8 64 GiB $- $- $- $- $-
E16s v3 16 128 GiB $- $- $- $- $-
E20s v3 20 160 GiB $- $- $- $- $-
E32s v3 32 256 GiB $- $- $- $- $-
E64is v3 1 64 432 GiB $- $- $- $- Nicht verfügbar
E64s v3 64 432 GiB $- $- $- $- $-
1 Azure Compute bietet VM-Größen, die für einen bestimmten Hardwaretyp isoliert und für einen einzelnen Kunden bestimmt sind. Diese VM-Größen eignen sich am besten für Workloads, die ein hohes Maß an Isolation von anderen Kunden erfordern, wenn es um Workloads mit Elementen wie Compliance und gesetzlichen Anforderungen geht.

D11-15 v2

Instanz vCPU RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
D11 v2 2 14 GiB $- $- $- $- $-
D12 v2 4 28 GiB $- $- $- $- $-
D13 v2 8 56 GiB $- $- $- $- $-
D14 v2 16 112 GiB $- $- $- $- $-
D15 v2 20 140 GiB $- $- $- $- $-

DS11-S15 v2

Instanz vCPU RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
DS11 v2 2 14 GiB $- $- $- $- $-
DS12 v2 4 28 GiB $- $- $- $- $-
DS13 v2 8 56 GiB $- $- $- $- $-
DS14 v2 16 112 GiB $- $- $- $- $-
DS15 v2 20 140 GiB $- $- $- $- $-

G-Reihe

Instanz Kern RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
G1 2 28 GiB $- $- $- – – Leer – – Leer
G2 4 56 GiB $- $- $- – – Leer – – Leer
G3 8 112 GiB $- $- $- – – Leer – – Leer
G4 16 224 GiB $- $- $- – – Leer – – Leer
G5 32 448 GiB $- $- $- – – Leer – – Leer

Reservierte VM-Instanzen sind für die G-Serie derzeit nicht verfügbar.

M-Serie

Instanz vCPU RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
M64 64 1.024 GiB $- $- $- $- $-
M32ls 32 256 GiB $- $- $- $- $-
M64ls 64 512 GiB $- $- $- $- $-
M64m 64 1.792 GiB $- $- $- $- $-
M128m 128 3.892 GiB $- $- $- $- $-
M8ms 8 219 GiB $- $- $- $- $-
M16ms 16 438 GiB $- $- $- $- $-
M32ms 32 875 GiB $- $- $- $- $-
M64ms 64 1.792 GiB $- $- $- $- $-
M128ms 128 3.892 GiB $- $- $- $- $-
M64s 64 1.024 GiB $- $- $- $- $-
M128 128 2.048 GiB $- $- $- $- $-
M128s 128 2.048 GiB $- $- $- $- $-
M32ts 32 192 GiB $- $- $- $- $-

In hohem Maß arbeitsspeicheroptimiert

Instanz Aktive vCPU /
Zugrunde liegende vCPU
RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
DS11-1 v2 1 / 2 14 GiB $- $- $- $- $-
DS12-1 v2 1 / 4 28 GiB $- $- $- $- $-
DS12-2 v2 2 / 4 28 GiB $- $- $- $- $-
DS13-2 v2 2 / 8 56 GiB $- $- $- $- $-
DS13-4 v2 4 / 8 56 GiB $- $- $- $- $-
DS14-4 v2 4 / 16 112 GiB $- $- $- $- $-
DS14-8 v2 8 / 16 112 GiB $- $- $- $- $-
E4-2s v3 2 / 4 32 GiB $- $- $- $- $-
E8-2s v3 2 / 8 64 GiB $- $- $- $- $-
E8-4s v3 4 / 8 64 GiB $- $- $- $- $-
E16-4s v3 4 / 16 128 GiB $- $- $- $- $-
E16-8s v3 8 / 16 128 GiB $- $- $- $- $-
E32-8s v3 8 / 32 256 GiB $- $- $- $- $-
E32-16s v3 16 / 32 256 GiB $- $- $- $- $-
E64-16s v3 16 / 64 432 GiB $- $- $- $- $-
E64-32s v3 32 / 64 432 GiB $- $- $- $- $-
Gs4-4 4 / 16 224 GiB $- $- $- Nicht verfügbar Nicht verfügbar
Gs4-8 8 / 16 224 GiB $- $- $- Nicht verfügbar Nicht verfügbar
Gs5-8 8 / 32 448 GiB $- $- $- Nicht verfügbar Nicht verfügbar
Gs5-16 16 / 32 448 GiB $- $- $- Nicht verfügbar Nicht verfügbar
M64-16ms 16 / 64 1.750 GiB $- $- $- $- $-
M64-32ms 32 / 64 1.750 GiB $- $- $- $- $-
M128-32ms 32 / 128 3.800 GiB $- $- $- $- $-
M128-64ms 64 / 128 3.800 GiB $- $- $- $- $-

Speicheroptimiert

Datenträgerdurchsatz und -E/A auf hohem Niveau. Ideal für Big Data sowie SQL- und NoSQL-Datenbanken.

L-Serie

Instanz Kern RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
L4 4 32 GiB $- $- $- $- $-
L8 8 64 GiB $- $- $- $- $-
L16 16 128 GiB $- $- $- $- $-
L32 32 256 GiB $- $- $- $- $-

GPU

Spezialisierte virtuelle Computer für intensives Grafikrendering und intensive Videobearbeitung (verfügbar mit einer oder mehreren GPUs).

NC-Serie

Instanz Kern RAM GPU
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
NC6 6 56 GiB 1X K80 $- $- $- $- $-
NC12 12 112 GiB 2X K80 $- $- $- $- $-
NC24 24 224 GiB 4X K80 $- $- $- $- $-
NC24r 24 224 GiB 4X K80 $- $- $- $- $-

NCv2-Serie

Instanz Kern RAM GPU
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
NC6s v2 6 112 GiB 1X P100 $- $- $- $- $-
NC12s v2 12 224 GiB 2X P100 $- $- $- $- $-
NC24s v2 24 448 GiB 4X P100 $- $- $- $- $-
NC24rs v2 24 448 GiB 4X P100 $- $- $- $- $-

NCv3-Serie

Instanz Kern RAM GPU
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
NC6s v3 6 112 GiB 1X V100 $- $- $- $- $-
NC12s v3 12 224 GiB 2X V100 $- $- $- $- $-
NC24 v3 24 448 GiB 4X V100 $- $- $- $- $-
NC24rs v3 24 448 GiB 4X V100 $- $- $- $- $-

NV-Serie

Instanz Kern RAM GPU
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
NV6 6 56 GiB 1X M60 $- $- $- $- $-
NV12 12 112 GiB 2X M60 $- $- $- $- $-
NV24 24 224 GiB 4X M60 $- $- $- $- $-

ND-Serie

Instanz Kern RAM GPU
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
ND6 6 112 GiB 1X P40 $- $- $- $- $-
ND12 12 224 GiB 2X P40 $- $- $- $- $-
ND24 24 448 GiB 4X P40 $- $- $- $- $-
ND24r 24 448 GiB 4X P40 $- $- $- $- $-

High Performance Computing

Unsere virtuellen Computer mit den schnellsten und leistungsfähigsten CPUs, die optional über Netzwerkschnittstellen mit hohem Durchsatz (RDMA) verfügen.

H-Serie

Instanz Kern RAM
Preis für Linux-VM
Machine Learning
Dienstaufpreis
Nutzungsbasierte Bezahlung
Gesamtpreis
Reservierung für ein Jahr
(Einsparungen in %)
Gesamtpreis
Reservierung für drei Jahre
(Einsparungen in %)
Gesamtpreis
H8 8 56 GiB $- $- $- $- $-
H16 16 112 GiB $- $- $- $- $-
H8m 8 112 GiB $- $- $- $- $-
H16m 16 224 GiB $- $- $- $- $-
H16mr 16 224 GiB $- $- $- $- $-
H16r 16 112 GiB $- $- $- $- $-

FPGA

Microservices mit beschleunigter Hardware hauptsächlich für abgeleitete Workload

Die Verwendung von ML Service auf FPGA-basierten VMs ist derzeit kostenlos. Die Preise für die Verwendung von ML Service auf VMs mit FPGA werden zu einem späteren Zeitpunkt bekannt gegeben.

Hinweis: FPGA-basierte VMs sind derzeit auf abgeleitete Workloads für Machine Learning Service beschränkt.

Zusätzliche Informationen

  • Zusätzlich zu den oben aufgeführten Kosten werden drei weitere Ressourcen bereitgestellt, für die ebenfalls Kosten anfallen.

    1. Basic-Konto für Azure Container Registry
    2. Azure Block Blob Storage (universell v1)
    3. Key Vault
  • Technischer Support für alle zur allgemeinen Verfügbarkeit freigegebenen Azure-Dienste steht über den Azure-Support ab $29/Monat zur Verfügung. Der Support für die Abrechnungs- und Abonnementverwaltung wird kostenlos bereitgestellt.
  • Berechnung der monatlichen Betriebszeit und Servicelevels für die Echtzeitbewertung von Machine Learning Services.*

    „Total Transaction Attempts“ (Gesamtzahl an Transaktionsversuchen) sind alle API-Anforderungen, die von einem Kunden während eines Abrechnungsmonats für ein bestimmtes Microsoft Azure-Abonnement gestellt werden.

    Unter „Failed Transactions“ (Fehlgeschlagene Transaktionen) werden alle Anforderungen aufgeführt, die keinen Erfolgscode oder HTTP 4xx-, HTTP 502- oder HTTP 503-Antworten zurückgegeben haben.

    „Monthly Uptime Percentage“ (Monatliche Betriebszeit in Prozent) wird wie folgt berechnet: Gesamtzahl an Transaktionsversuchen minus fehlgeschlagene Transaktionen dividiert durch Gesamtzahl an Transaktionsversuchen in einem Abrechnungsmonat für ein angegebenes Microsoft Azure-Abonnement. Für die Berechnung der monatlichen Verfügbarkeit in Prozent gilt folgende Formel:

    Monatliche Betriebszeit in % = (Gesamtzahl an Transaktionsversuchen – Fehlgeschlagene Transaktionen) / Gesamtzahl an Transaktionsversuchen

    Für die Nutzung der Echtzeitbewertung von Machine Learning Services durch Kunden gelten folgende Servicelevels und Dienstgutschriften:

    Monatliche Verfügbarkeit in Prozent Dienstguthaben**
    < 99.95 % 10 %
    < 99 % 25 %

    *Wir garantieren, das Computeziel (AKS) aufzurufen, das der Benutzer für die Dienstbereitstellung ausgewählt hat, und uns an die SLA zu halten, solange keine Benutzerfehler vorliegen (z.B. beschädigte Modelle oder Fehler im Webdienstcode), und dass es keine Probleme mit der Umgebung gibt (z.B. nicht genügend AKS-Agents, um eine Anforderung zu verarbeiten). Dienstausfälle aufgrund von Benutzerfehlern wie den oben beschriebenen fallen nicht in den Anwendungsbereich der SLA.

    **Das Dienstguthaben bezieht sich nur auf den Aufpreis.

    Weitere Informationen über die SLA finden Sie auf der SLA-Seite.

Häufig gestellte Fragen (FAQ)

  • Informationen zum Migrationsprozess finden Sie hier: So führen Sie eine Migration durch.

  • Ihre Experimentier- und Modellverwaltungskonten sowie die Workbench-Anwendung können Sie auch nach September 2018 noch eine Weile weiter verwenden. Die Unterstützung für die folgenden Ressourcen wird in den 3 bis 4 Monaten nach diesem Release schrittweise eingestellt. Informationen zur Dokumentation der alten Features finden Sie weiterhin im unteren Bereich des Inhaltsverzeichnisses im Abschnitt „Ressourcen“.

    Phase Einzelheiten zur Unterstützung für ältere Funktionen
    1 Die Möglichkeit der Erstellung eines Azure Machine Learning-Experimentier- und -Modellverwaltungskontos im Azure-Portal und über die CLI. Die Möglichkeit der Erstellung von ML Compute-Umgebungen über die CLI wird ebenfalls eingestellt. Wenn Sie ein Konto besitzen, funktionieren die CLI und die Desktop-Workbench weiterhin in dieser Phase.
    2 Die zugrunde liegenden APIs zum Erstellen alter Arbeitsbereiche und Projekte in der Desktop-Workbench und mit der CLI werden eingestellt. Sie können in dieser Phase weiterhin vorhandene Projekte öffnen, diesen zusätzliche Skripts hinzufügen, Skripts in vorhandenen Projekten ausführen und Webdienste in bestehenden ML Compute-Umgebungen bereitstellen.
    3 Die Unterstützung für alle anderen Komponenten, einschließlich der restlichen APIs und der Desktop-Workbench, wird in dieser Phase eingestellt.

    Beginnen Sie noch heute mit der Migration. Alle aktuellen Funktionen sind im neuen SDK, der CLI und im Portal verfügbar.

    Weitere Einzelheiten zur Migration finden Sie hier.

  • Der Azure Machine Learning-Dienst und das Azure Machine Learning SDK für Python ersetzen den Azure Machine Learning-Experimentier- und Azure Machine Learning-Modellverwaltungsdienst, der derzeit in der Vorschauversion verfügbar ist. Kunden, die den Azure Machine Learning-Experimentier- und -Modellverwaltungsdienst verwenden, müssen alle Experimente, Modelle und Bereitstellungen zum neuen Dienst migrieren. Für die hierdurch verursachten Unannehmlichkeiten bitten wir Sie um Verständnis. Die Migration ist erforderlich, da wir architektonische Änderungen als Reaktion auf das für die Vorschauversion eingereichte Kundenfeedback vorgenommen haben. Azure Machine Learning ermöglicht ab sofort schnellere, effizientere und nahtlose Data Science über einen einzigen Azure-Dienst.

    Darüber hinaus haben wir auch die Preise für den Dienst übersichtlicher gestaltet, sodass Sie jetzt nur noch für die Ressourcen bezahlen, die Sie tatsächlich nutzen.

    Kunden, die den Azure Machine Learning-Experimentierdienst nutzen, können nun mit dem Machine Learning-Dienst ihre Modelle trainieren, und das ohne Aufpreis. Sie bezahlen nur für das zugrunde liegende Computing, BatchAI oder DSVM und andere Azure-Dienste, die Sie genutzt haben.

    Kunden, die den Azure Machine Learning-Modellverwaltungsdienst nutzen, bezahlen ab sofort nur noch für die Ressourcen, die sie über AKS bereitstellen möchten. Sie bezahlen einen geringen Aufpreis für das zugrunde liegende Computing, den Machine Learning-Dienst und alle anderen Azure-Dienste, die Sie genutzt haben.

  • Nein. Trainingsmodelle sind beim Azure Machine Learning-Dienst kostenlos. Sie müssen für die Nutzung des zugrundeliegenden Computings und der VMs bezahlen. Die VM-Preise finden Sie hier.
  • Nein. Für die Bereitstellung von Modellen auf Ihren eigenen VMs zahlen Sie keinen zusätzlichen Aufpreis für Azure Machine Learning. Sie müssen jedoch für die Bereitstellung der VMs bezahlen. Die VM-Preise finden Sie hier.
  • Die Abrechnung erfolgt täglich. Der Tagesbeginn für die Abrechnung bezieht sich auf Mitternacht UCT-Zeit. Die Abrechnungen werden monatlich generiert. Veranschaulichen wir dies an einem konkreten Beispiel: Nehmen wir an, Sie stellen Ihre Modelle mit 10 DS14 v2-VMs bereit. Für einen Abrechnungsmonat mit 30 Tagen können Sie die Preise wie folgt berechnen:

    Gebühren für Azure Machine Learning Service: (10 × 30 × 24 ) × Rate pro Stunde (nutzungsbasiert)

    Beachten Sie, dass die Computegebühren in den oben genannten Preisen für den Azure Machine Learning-Dienst inbegriffen sind. Darüber hinaus fallen für alle in Zusammenhang mit Azure Machine Learning genutzten Azure-Dienste separate Gebühren an, unter anderem für HDInsight, Azure Container Registry, Azure Blob Storage, Application Insights, Azure Key Vault, Virtual Network, Azure Event Hubs und Azure Stream Analytics.

Ressourcen

Kalkulieren Sie die monatlichen Kosten für Azure-Dienste

Lesen Sie die häufig gestellten Fragen zu den Preisen von Azure

Erfahren Sie mehr über Azure Machine Learning-Dienst

Sehen Sie sich technikbezogene Lernprogramme, Videos und weitere Ressourcen an

Zur Schätzung hinzufügen Für die Anzeige im Rechner „v“ drücken Im Rechner anzeigen

Mit einem Guthaben von $200 lernen und erstellen und von weiteren kostenlosen Produkten profitieren