Verwenden eines Diensts auf Unternehmensniveau für den End-to-End-Machine Learning-Lebenszyklus
Stellen Sie Entwicklern und Data Scientists zahlreiche Funktionen zur Verfügung, mit denen sie in kürzester Zeit Machine Learning-Modelle erstellen, trainieren und bereitstellen können. Verringern Sie Ihre Time-to-Market, und optimieren Sie die Zusammenarbeit zwischen Teams durch branchenführendes MLOps: DevOps für Machine Learning. Schaffen Sie Innovationen mithilfe einer sicheren und vertrauenswürdigen Plattform, die die Erstellung verantwortungsbewusster KI-Lösungen fördert.
Preisoptionen entdecken
-
Nutzungsbasierte Bezahlung
Zahlen Sie für Computekapazität pro Sekunde, ohne langfristige Verpflichtungen oder Vorauszahlungen. Erhöhen oder verringern Sie den Verbrauch nach Bedarf.
-
Azure-Sparplan für Compute
Sparen Sie Geld bei ausgewählte Compute Services weltweit, indem Sie sich dazu verpflichten, einen festen Stundenbetrag für 1 oder 3 Jahre auszugeben, um niedrigere Preise freizuschalten, bis Sie Ihre Stundenverpflichtung erreichen. Geeignet für dynamische Workloads bei gleichzeitiger Anpassung für geplante oder ungeplante Änderungen.
-
Reservierungen
Azure Reserved Virtual Machine Instances bieten im Vergleich zu nutzungsbasierten Tarifen erhebliche Kostenreduzierungen, wenn Sie sich für ein Jahr oder drei Jahre verpflichten. Geeignet für stabile, vorhersagbare Workloads ohne geplante Änderungen.
Sie können die Preisoptionen mit Filtern anpassen.
Preise sind nur Schätzungen und nicht als tatsächliche Preisangebote vorgesehen. Die tatsächlichen Preise können je nach Art des mit Microsoft eingegangenen Vertrags, dem Kaufdatum und dem Wechselkurs variieren. Die Preise werden auf der Grundlage des US-Dollars berechnet und anhand der Londoner Schlusskassakurse umgerechnet, die an den beiden Geschäftstagen vor dem letzten Geschäftstag des vorangegangenen Monatsendes erfasst werden. Wenn die beiden Geschäftstage vor dem Monatsende auf einen Bankfeiertag in wichtigen Märkten fallen, ist der Tag der Kursfeststellung in der Regel der Tag, der den beiden Geschäftstagen unmittelbar vorausgeht. Dieser Kurs gilt für alle Transaktionen im kommenden Monat. Melden Sie sich beim Azure-Preisrechner an, um die Preise basierend auf Ihrem aktuellen Programm/Angebot mit Microsoft anzuzeigen. Wenden Sie sich an einen Azure-Vertriebsspezialisten, um weitere Informationen zu den Preisen zu erhalten oder ein Preisangebot anzufordern. Siehe häufig gestellte Fragen zu Azure-Preisen.
Beachten Sie, dass für die Verwendung von Azure Machine Learning keine zusätzlichen Gebühren anfallen. Allerdings fallen neben Computegebühren separate Gebühren für andere genutzte Azure-Dienste an, unter anderem für Azure Blob Storage, Azure Key Vault, Azure Container Registry und Azure Application Insights.
Allgemein
Ausgewogenes Verhältnis von CPU zu Arbeitsspeicher. Ideal für Tests und Entwicklung, kleine bis mittlere Datenbanken sowie Webserver mit geringer bis mittlerer Auslastung.
D2-64 v3
Instanz | vCPU(s) | RAM |
Preis für Linux-VM
|
Machine Learning Dienstaufpreis |
Nutzungsbasierte Bezahlung Gesamtpreis |
1-Jahres-Sparplan | 3-Jahres-Sparplan |
---|---|---|---|---|---|---|---|
D2 v3 | 2 | 8 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D4 v3 | 4 | 16 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D8 v3 | 8 | 32 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D16 v3 | 16 | 64 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D32 v3 | 32 | 128 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D64 v3 | 64 | 256 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D2s-64s v3
Instanz | vCPU(s) | RAM |
Preis für Linux-VM
|
Machine Learning Dienstaufpreis |
Nutzungsbasierte Bezahlung Gesamtpreis |
1-Jahres-Sparplan | 3-Jahres-Sparplan |
---|---|---|---|---|---|---|---|
D2s v3 | 2 | 8 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D4s v3 | 4 | 16 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D8s v3 | 8 | 32 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D16s v3 | 16 | 64 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D32s v3 | 32 | 128 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D64s v3 | 64 | 256 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D1-5 v2
Instanz | vCPU(s) | RAM |
Preis für Linux-VM
|
Machine Learning Dienstaufpreis |
Nutzungsbasierte Bezahlung Gesamtpreis |
1-Jahres-Sparplan | 3-Jahres-Sparplan |
---|---|---|---|---|---|---|---|
D1 v2 | 1 | 3,5 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D2 v2 | 2 | 7 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D3 v2 | 4 | 14 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D4 v2 | 8 | 28 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D1s-5s v2
Instanz | vCPU(s) | RAM |
Preis für Linux-VM
|
Machine Learning Dienstaufpreis |
Nutzungsbasierte Bezahlung Gesamtpreis |
1-Jahres-Sparplan | 3-Jahres-Sparplan |
---|---|---|---|---|---|---|---|
DS1 v2 | 1 | 3,5 GiB | $- |
$-
|
$-
|
$-
|
$-
|
DS2 v2 | 2 | 7 GiB | $- |
$-
|
$-
|
$-
|
$-
|
DS3 v2 | 4 | 14 GiB | $- |
$-
|
$-
|
$-
|
$-
|
DS4 v2 | 8 | 28 GiB | $- |
$-
|
$-
|
$-
|
$-
|
DS5 v2 | 16 | 56 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D2ds – D64ds v4
Instanz | vCPU(s) | RAM |
Preis für Linux-VM
|
Machine Learning Dienstaufpreis |
Nutzungsbasierte Bezahlung Gesamtpreis |
1-Jahres-Sparplan | 3-Jahres-Sparplan |
---|---|---|---|---|---|---|---|
D2ds v4 | 2 | 8 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D4ds v4 | 4 | 16 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D8ds v4 | 8 | 32 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D16ds v4 | 16 | 64 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D32ds v4 | 32 | 128 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D48ds v4 | 48 | 192 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D64ds v4 | 64 | 256 GiB | $- |
$-
|
$-
|
$-
|
$-
|
Computeoptimiert
Hohes Verhältnis von CPU zu Arbeitsspeicher. Ideal für Webserver, Network Appliances, Stapelverarbeitungsvorgänge und Anwendungsserver mit mittlerer Auslastung.
Fsv2-Serie
Instanz | vCPU(s) | RAM |
Preis für Linux-VM
|
Machine Learning Dienstaufpreis |
Nutzungsbasierte Bezahlung Gesamtpreis |
1-Jahres-Sparplan | 3-Jahres-Sparplan |
---|---|---|---|---|---|---|---|
F2s v2 | 2 | 4 GiB | $- |
$-
|
$-
|
$-
|
$-
|
F4s v2 | 4 | 8 GiB | $- |
$-
|
$-
|
$-
|
$-
|
F8s v2 | 8 | 16 GiB | $- |
$-
|
$-
|
$-
|
$-
|
F16s v2 | 16 | 32 GiB | $- |
$-
|
$-
|
$-
|
$-
|
F32s v2 | 32 | 64 GiB | $- |
$-
|
$-
|
$-
|
$-
|
F64s v2 | 64 | 128 GiB | $- |
$-
|
$-
|
$-
|
$-
|
F72s v2 | 72 | 144 GiB | $- |
$-
|
$-
|
$-
|
$-
|
Arbeitsspeicheroptimiert
Hohes Verhältnis von Speicher zu Kern. Hervorragend geeignet für relationale Datenbankserver, mittlere bis große Caches und In-Memory-Analysen.
E2-64 v3
Instanz | vCPU(s) | RAM |
Preis für Linux-VM
|
Machine Learning Dienstaufpreis |
Nutzungsbasierte Bezahlung Gesamtpreis |
1-Jahres-Sparplan | 3-Jahres-Sparplan |
---|---|---|---|---|---|---|---|
E2 v3 | 2 | 16 GiB | $- |
$-
|
$-
|
$-
|
$-
|
E4 v3 | 4 | 32 GiB | $- |
$-
|
$-
|
$-
|
$-
|
E8 v3 | 8 | 64 GiB | $- |
$-
|
$-
|
$-
|
$-
|
E16 v3 | 16 | 128 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D-series
Instanz | vCPU(s) | RAM |
Preis für Linux-VM
|
Machine Learning Dienstaufpreis |
Nutzungsbasierte Bezahlung Gesamtpreis |
1-Jahres-Sparplan | 3-Jahres-Sparplan |
---|---|---|---|---|---|---|---|
D1 | 1 | 3,5 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D2 | 2 | 7 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D3 | 4 | 14 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D4 | 8 | 28 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D11 | 2 | 14 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D12 | 4 | 28 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D13 | 8 | 56 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D14 | 16 | 112 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D11-15 v2
Instanz | vCPU(s) | RAM |
Preis für Linux-VM
|
Machine Learning Dienstaufpreis |
Nutzungsbasierte Bezahlung Gesamtpreis |
1-Jahres-Sparplan | 3-Jahres-Sparplan |
---|---|---|---|---|---|---|---|
D11 v2 | 2 | 14 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D12 v2 | 4 | 28 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D13 v2 | 8 | 56 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D14 v2 | 16 | 112 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D15 v2 | 20 | 140 GiB | $- |
$-
|
$-
|
$-
|
$-
|
D11S-15S v2
Instanz | vCPU(s) | RAM |
Preis für Linux-VM
|
Machine Learning Dienstaufpreis |
Nutzungsbasierte Bezahlung Gesamtpreis |
1-Jahres-Sparplan | 3-Jahres-Sparplan |
---|---|---|---|---|---|---|---|
DS11 v2 | 2 | 14 GiB | $- |
$-
|
$-
|
$-
|
$-
|
DS12 v2 | 4 | 28 GiB | $- |
$-
|
$-
|
$-
|
$-
|
DS13 v2 | 8 | 56 GiB | $- |
$-
|
$-
|
$-
|
$-
|
DS14 v2 | 16 | 112 GiB | $- |
$-
|
$-
|
$-
|
$-
|
DS15 v2 | 20 | 140 GiB | $- |
$-
|
$-
|
$-
|
$-
|
E2a – E96a v4
Instanz | vCPU(s) | RAM |
Preis für Linux-VM
|
Machine Learning Dienstaufpreis |
Nutzungsbasierte Bezahlung Gesamtpreis |
1-Jahres-Sparplan | 3-Jahres-Sparplan |
---|---|---|---|---|---|---|---|
E2a v4 | 2 | 16 GiB | $- |
$-
|
$-
|
$-
|
$-
|
E4a v4 | 4 | 32 GiB | $- |
$-
|
$-
|
$-
|
$-
|
E8a v4 | 8 | 64 GiB | $- |
$-
|
$-
|
$-
|
$-
|
E16a v4 | 16 | 128 GiB | $- |
$-
|
$-
|
$-
|
$-
|
E32a v4 | 32 | 256 GiB | $- |
$-
|
$-
|
$-
|
$-
|
E48a v4 | 48 | 384 GiB | $- |
$-
|
$-
|
$-
|
$-
|
E64a v4 | 64 | 512 GiB | $- |
$-
|
$-
|
$-
|
$-
|
E96a v4 | 96 | 672 GiB | $- |
$-
|
$-
|
$-
|
$-
|
E2s – E64s
Spark-Compute von Synapse. Die Preise basieren auf den Preisen von Synapse. Weitere Informationen finden Sie unter Preise – Azure Synapse Analytics | Microsoft Azure (Abschnitt „Big Data Analytics“).
M-Serie
Instanz | vCPU(s) | RAM |
Preis für Linux-VM
|
Machine Learning Dienstaufpreis |
Nutzungsbasierte Bezahlung Gesamtpreis |
1-Jahres-Sparplan | 3-Jahres-Sparplan |
---|---|---|---|---|---|---|---|
M64 | 64 | 1.024 GiB | $- |
$-
|
$-
|
$-
|
$-
|
M32ls | 32 | 256 GiB | $- |
$-
|
$-
|
$-
|
$-
|
M64ls | 64 | 512 GiB | $- |
$-
|
$-
|
$-
|
$-
|
M64m | 64 | 1.792 GiB | $- |
$-
|
$-
|
$-
|
$-
|
M128m | 128 | 3.892 GiB | $- |
$-
|
$-
|
$-
|
$-
|
M8ms | 8 | 218,75 GiB | $- |
$-
|
$-
|
$-
|
$-
|
M16ms | 16 | 437,5 GiB | $- |
$-
|
$-
|
$-
|
$-
|
M32ms | 32 | 875 GiB | $- |
$-
|
$-
|
$-
|
$-
|
M64ms | 64 | 1.792 GiB | $- |
$-
|
$-
|
$-
|
$-
|
M128ms | 128 | 3.892 GiB | $- |
$-
|
$-
|
$-
|
$-
|
M64s | 64 | 1.024 GiB | $- |
$-
|
$-
|
$-
|
$-
|
M128 | 128 | 2.048 GiB | $- |
$-
|
$-
|
$-
|
$-
|
M128s | 128 | 2.048 GiB | $- |
$-
|
$-
|
$-
|
$-
|
M32ts | 32 | 192 GiB | $- |
$-
|
$-
|
$-
|
$-
|
GPU
Spezialisierte virtuelle Computer für intensives Grafikrendering und intensive Videobearbeitung (verfügbar mit einer oder mehreren GPUs).
NC-Serie
Instanz | vCPU(s) | RAM | GPU |
Preis für Linux-VM
|
Machine Learning Dienstaufpreis |
Nutzungsbasierte Bezahlung Gesamtpreis |
1-Jahres-Sparplan | 3-Jahres-Sparplan |
---|---|---|---|---|---|---|---|---|
NC6 | 6 | 56 GiB | 1X K80 | $- |
$-
|
$-
|
$-
|
$-
|
NC12 | 12 | 112 GiB | 2X K80 | $- |
$-
|
$-
|
$-
|
$-
|
NC24 | 24 | 224 GiB | 4X K80 | $- |
$-
|
$-
|
$-
|
$-
|
NC24r | 24 | 224 GiB | 4X K80 | $- |
$-
|
$-
|
$-
|
$-
|
NCsv2-Serie
Instanz | vCPU(s) | RAM | GPU |
Preis für Linux-VM
|
Machine Learning Dienstaufpreis |
Nutzungsbasierte Bezahlung Gesamtpreis |
1-Jahres-Sparplan | 3-Jahres-Sparplan |
---|---|---|---|---|---|---|---|---|
NC6s v2 | 6 | 112 GiB | 1X P100 | $- |
$-
|
$-
|
$-
|
$-
|
NC12s v2 | 12 | 224 GiB | 2X P100 | $- |
$-
|
$-
|
$-
|
$-
|
NC24s v2 | 24 | 448 GiB | 4X P100 | $- |
$-
|
$-
|
$-
|
$-
|
NC24rs v2 | 24 | 448 GiB | 4X P100 | $- |
$-
|
$-
|
$-
|
$-
|
NCsv3-Serie
Instanz | vCPU(s) | RAM | GPU |
Preis für Linux-VM
|
Machine Learning Dienstaufpreis |
Nutzungsbasierte Bezahlung Gesamtpreis |
1-Jahres-Sparplan | 3-Jahres-Sparplan |
---|---|---|---|---|---|---|---|---|
NC6s v3 | 6 | 112 GiB | 1X V100 | $- |
$-
|
$-
|
$-
|
$-
|
NC12s v3 | 12 | 224 GiB | 2X V100 | $- |
$-
|
$-
|
$-
|
$-
|
NC24s v3 | 24 | 448 GiB | 4X V100 | $- |
$-
|
$-
|
$-
|
$-
|
NC24rs v3 | 24 | 448 GiB | 4X V100 | $- |
$-
|
$-
|
$-
|
$-
|
NV-Serie
Instanz | vCPU(s) | RAM | GPU |
Preis für Linux-VM
|
Machine Learning Dienstaufpreis |
Nutzungsbasierte Bezahlung Gesamtpreis |
1-Jahres-Sparplan | 3-Jahres-Sparplan |
---|---|---|---|---|---|---|---|---|
NV6 | 6 | 56 GiB | 1X M60 | $- |
$-
|
$-
|
$-
|
$-
|
NV12 | 12 | 112 GiB | 2X M60 | $- |
$-
|
$-
|
$-
|
$-
|
NV24 | 24 | 224 GiB | 4X M60 | $- |
$-
|
$-
|
$-
|
$-
|
NVv3-Serie
Instanz | vCPU(s) | RAM | GPU |
Preis für Linux-VM
|
Machine Learning Dienstaufpreis |
Nutzungsbasierte Bezahlung Gesamtpreis |
1-Jahres-Sparplan | 3-Jahres-Sparplan |
---|---|---|---|---|---|---|---|---|
NV12s v3 | 12 | 112 GiB | 1X M60 | $- |
$-
|
$-
|
$-
|
$-
|
NV24s v3 | 24 | 224 GiB | 2X M60 | $- |
$-
|
$-
|
$-
|
$-
|
NV48s v3 | 48 | 448 GiB | 4X M60 | $- |
$-
|
$-
|
$-
|
$-
|
NDs-Serie
Instanz | Kern(e) | RAM | GPU |
Preis für Linux-VM
|
Machine Learning Dienstaufpreis |
Nutzungsbasierte Bezahlung Gesamtpreis |
1-Jahres-Sparplan | 3-Jahres-Sparplan |
---|---|---|---|---|---|---|---|---|
ND6s | 6 | 112 GiB | 1X P40 | $- |
$-
|
$-
|
$-
|
$-
|
ND12s | 12 | 224 GiB | 2X P40 | $- |
$-
|
$-
|
$-
|
$-
|
ND24rs | 24 | 448 GiB | 4X P40 | $- |
$-
|
$-
|
$-
|
$-
|
ND24s | 24 | 448 GiB | 4X P40 | $- |
$-
|
$-
|
$-
|
$-
|
NCas_T4_v3-Serie
Instanz | vCPU(s) | RAM | GPU |
Preis für Linux-VM
|
Machine Learning Dienstaufpreis |
Nutzungsbasierte Bezahlung Gesamtpreis |
1-Jahres-Sparplan | 3-Jahres-Sparplan |
---|---|---|---|---|---|---|---|---|
NC4as T4 v3 | 4 | 28 GiB | 1X T4 | $- |
$-
|
$-
|
$-
|
$-
|
NC8as T4 v3 | 8 | 56 GiB | 1X T4 | $- |
$-
|
$-
|
$-
|
$-
|
NC16as T4 v3 | 16 | 110 GiB | 1X T4 | $- |
$-
|
$-
|
$-
|
$-
|
NC64as T4 v3 | 64 | 440 GiB | 4X T4 | $- |
$-
|
$-
|
$-
|
$-
|
NDv2-Serie
Instanz | Kern(e) | RAM | GPU |
Preis für Linux-VM
|
Machine Learning Dienstaufpreis |
Nutzungsbasierte Bezahlung Gesamtpreis |
1-Jahres-Sparplan | 3-Jahres-Sparplan |
---|---|---|---|---|---|---|---|---|
ND40rs v2 | 40 | 672 GiB | 8X V100 (NVlink) | $- |
$-
|
$-
|
$-
|
$-
|
ND A100 v4-Serie
Instanz | Kern(e) | RAM | GPU |
Preis für Linux-VM
|
Machine Learning Dienstaufpreis |
Nutzungsbasierte Bezahlung Gesamtpreis |
1-Jahres-Sparplan | 3-Jahres-Sparplan |
---|---|---|---|---|---|---|---|---|
ND96asr A100 v4 | 96 | 900 GiB | 8x A100 (NVlink) | $- |
$-
|
$-
|
$-
|
$-
|
High Performance Computing
Unsere virtuellen Computer mit den schnellsten und leistungsfähigsten CPUs, die optional über Netzwerkschnittstellen mit hohem Durchsatz (RDMA) verfügen.
H-Serie
Instanz | Kern(e) | RAM |
Preis für Linux-VM
|
Machine Learning Dienstaufpreis |
Nutzungsbasierte Bezahlung Gesamtpreis |
1-Jahres-Sparplan | 3-Jahres-Sparplan |
---|---|---|---|---|---|---|---|
H8 | 8 | 56 GiB | $- |
$-
|
$-
|
$-
|
$-
|
H8m | 8 | 112 GiB | $- |
$-
|
$-
|
$-
|
$-
|
H16m | 16 | 224 GiB | $- |
$-
|
$-
|
$-
|
$-
|
H16mr | 16 | 224 GiB | $- |
$-
|
$-
|
$-
|
$-
|
H16r | 16 | 112 GiB | $- |
$-
|
$-
|
$-
|
$-
|
HB-Serie
Instanz | Kern(e) | RAM |
Preis für Linux-VM
|
Machine Learning Dienstaufpreis |
Nutzungsbasierte Bezahlung Gesamtpreis |
1-Jahres-Sparplan | 3-Jahres-Sparplan |
---|---|---|---|---|---|---|---|
HB60rs | 60 | 228 GiB | $- |
$-
|
$-
|
$-
|
$-
|
HBv2-Serie
Instanz | Kern(e) | RAM |
Preis für Linux-VM
|
Machine Learning Dienstaufpreis |
Nutzungsbasierte Bezahlung Gesamtpreis |
1-Jahres-Sparplan | 3-Jahres-Sparplan |
---|---|---|---|---|---|---|---|
HB120rs v2 | 120 | 456 GiB | $- |
$-
|
$-
|
$-
|
$-
|
HC-Serie
Instanz | Kern(e) | RAM |
Preis für Linux-VM
|
Machine Learning Dienstaufpreis |
Nutzungsbasierte Bezahlung Gesamtpreis |
1-Jahres-Sparplan | 3-Jahres-Sparplan |
---|---|---|---|---|---|---|---|
HC44rs | 44 | 352 GiB | $- |
$-
|
$-
|
$-
|
$-
|
Verwaltete Spark-Instanz
(Instanztypen: E2s-E64s)
Verwaltete Spark-Instanz aus Azure ML folgt den gleichen Preisen wie in Synapse Big Data Analytics (Spark-Pools):
Typ | Preis |
---|---|
Arbeitsspeicheroptimiert | $- pro vKern-Stunde |
Azure-Preise und -Kaufoptionen
Direkten Kontakt aufnehmen
Erhalten Sie eine Übersicht über die Azure-Preise. Informieren Sie sich über die Preise für Ihre Cloudlösung und die Möglichkeiten zur Kostenoptimierung, und fordern Sie ein individuelles Angebot an.
Sprechen Sie mit einem VertriebsspezialistenKaufoptionen
Erwerben Sie Azure-Dienste über die Azure-Website, einen Microsoft-Vertreter oder einen Azure-Partner.
Optionen kennenlernenZusätzliche Ressourcen
Azure Machine Learning
Hier erhalten Sie weitere Informationen zu den Features und Funktionen von Azure Machine Learning.
Preisrechner
Kalkulieren Sie Ihre erwarteten monatlichen Kosten für eine beliebige Kombination von Azure-Produkten.
SLA
Lesen Sie die Vereinbarung zum Servicelevel für Azure Machine Learning.
Dokumentation
Hier finden Sie technische Tutorials, Videos und weitere Ressourcen zu Azure Machine Learning.
Häufig gestellte Fragen
-
Azure Machine Learning-Kunden zahlen die Kosten für die genutzten Azure-Ressourcen, einschließlich virtueller Computer.
-
Die Abrechnung erfolgt täglich. Der Tagesbeginn für die Abrechnung bezieht sich auf Mitternacht UCT-Zeit. Die Abrechnungen werden monatlich generiert.
-
Schulungen:
Angenommen, Sie trainieren ein Modell 100 Stunden über 10 DS14 v2 VMs in einem Basic-Arbeitsbereich in US West 2. Für einen Abrechnungsmonat von 30 Tagen erhalten Sie folgende Abrechnung:
Azure VM-Gebühr: (10 Computer * $1.196 pro Computer) * 100 Stunden = $1196
Azure Machine Learning-Gebühr: (10 Computer * 16 Kerne * $0 pro Kern) * 100 Stunden = $0
Gesamt: $1196 + $0 = $1196
-
Rückschluss:
Angenommen, Sie stellen ein Rückschlussmodell ganztägig für einen Abrechnungsmonat von 30 Tagen über 10 DS14 v2 VMs in Basic in US West 2 bereit. Für einen Abrechnungsmonat von 30 Tagen erhalten Sie folgende Abrechnung:
Azure VM-Gebühr: (10 Computer * $1.196 pro Computer) * (24 Stunden * 30 Tage) = $8611.2
Azure Machine Learning-Gebühr: (10 Computer * 16 Kerne * $0 pro Kern) * (24 Stunden * 30 Tage) = $0
Gesamt: $8611.2 + $0 = $8611.2
Beachten Sie, dass keine zusätzlichen Azure Machine Learning-Gebühren anfallen. Neben Computegebühren fallen für alle genutzten Azure-Dienste separate Gebühren an, unter anderem für HDInsight, Azure Container Registry, Azure Blob Storage, Application Insights, Azure Key Vault, Virtual Network, Azure Event Hubs und Azure Stream Analytics.
-
Schulungen:
Sprechen Sie für eine detaillierte Erläuterung der Azure-Preise mit einem Vertriebsspezialisten. Lernen Sie, die Berechnung der Preise für Ihre Cloudlösung zu verstehen.
Sichern Sie sich kostenlose Cloud-Dienste und ein Guthaben in Höhe von $200, mit dem Sie Azure 30 Tage lang erkunden können.