Trace Id is missing
Zu Hauptinhalt springen
Azure

Offene Phi-Modelle

Eine Familie effizienter, kleiner Sprachmodelle mit beispiellosem Leistungsaufkommen bei geringen Kosten und kleiner Latenz.
Kleinere, weniger rechenintensive Modelle für generative KI-Lösungen.
ÜBERSICHT

Neudefinieren, was mit SLMs möglich ist

  • Maximieren Sie KI-Funktionen, verringern Sie die Ressourcennutzung, und sorgen Sie für kostengünstige generative KI-Bereitstellungen in Ihren Anwendungen.
  • Beschleunigen Sie die Reaktionszeiten bei Echtzeitinteraktionen, autonomen Systemen, Anwendungen, die eine geringe Latenzzeit erfordern, und anderen kritischen Szenarien.
  • Führen Sie Phi in der Cloud, am Edge oder auf dem Gerät aus, was zu einer größeren Bereitstellungs- und Betriebsflexibilität führt.
  • Phi-Modelle wurden gemäß den KI-Prinzipien von Microsoft entwickelt: Verantwortlichkeit, Transparenz, Fairness, Zuverlässigkeit und Sicherheit, Datenschutz und Sicherheit sowie Inklusion.
ANWENDUNGSFÄLLE

Phi für generative KI-Anwendungen verwenden

Lokale Bereitstellungen

Arbeiten Sie effektiv in Offlineumgebungen, in denen der Datenschutz von größter Bedeutung ist oder die Konnektivität eingeschränkt ist.

Genaue und relevante Antworten

Generieren Sie einheitlichere, präzisere und kontextrelevantere Ausgaben mit einem erweiterten Kontextfenster.

Latenzgebundene Szenarien

Stellen Sie am Edge bereit, um schnellere Antworten zu liefern.

Aufgaben mit Kostenbeschränkung

Verwenden Sie Phi für einfache Aufgaben, um Ressourcenanforderungen zu reduzieren und Kosten zu senken, ohne die Leistung zu beeinträchtigen.

Anpassung und Genauigkeit

Steigern Sie die Leistung, indem Sie die Modelle mit domänenspezifischen Daten optimieren.
SICHERHEIT

Integrierte Sicherheit und Compliance  

Microsoft hat sich verpflichtet, über fünf Jahre 20 Milliarden USD in Cybersicherheit zu investieren.  
Wir beschäftigen mehr als 8.500 Sicherheits- und Threat Intelligence-Experten in 77 Ländern. 
Azure verfügt über eines der größten Compliance-Zertifizierungsportfolios der Branche. 
PREISE

Phi-Modelle

Phi

Phi-Modelle sind kostenlos für die Echtzeitbereitstellung über den Azure KI-Modellkatalog verfügbar. Sie sind auch bei Hugging Face und Ollama erhältlich.

Phi in Models-as-a-Service

Phi-Modelle sind mit nutzungsbasierter Bezahlung über Rückschluss-APIs verfügbar.
FAQ

Häufig gestellte Fragen

    • Phi-1: Für Python-Codierung
    • Phi-1.5: Für Überlegen und Verstehen
    • Phi-2: Für Sprachverständnis
    • Phi-3: Für Language Understanding- und Überlegungsaufgaben

     

    *Phi-3 bietet auch eine gute Leistung bei der Codierung von Benchmarks. 

  • Ja, die Modelle ab Phi-3 sind alle für Anwendungsfälle in der Produktion konzipiert und haben nach dem Training eine strenge Sicherheitsschulung durchlaufen.
  • Phi ist über den Azure KI Studio-Modellkatalog, Hugging Face und Ollama verfügbar.
  • Phi ist regionsübergreifend verfügbar, in denen Azure KI Studio verfügbar ist.
  • Ja, Phi-Modelle sind über MaaS verfügbar.
  • Phi kann mit Azure Machine Learning SDK optimiert werden. Hier ist ein Beispielnotebook. Die Codeoptimierung ist in Azure Machine Learning und Azure KI Studio verfügbar.
  • Phi-mini wurde für Englisch trainiert und optimiert, und seine Funktionen in anderen Sprachen sind eingeschränkt. Wir empfehlen Ihnen, Microsoft Translator zu verwenden, um Prompts und Antworten zu übersetzen, um optimale Ergebnisse zu erzielen.
  • Oktober 2023

Erste Schritte

Zwei Personen sitzen an einem Tisch und diskutieren, während sie auf einen Laptop-Bildschirm mit Diagrammen und Grafiken schauen
Kontoregistrierung

Erste Schritte mit einem kostenlosen Konto

Mit einer Azure-Gutschrift von 200 USD starten.
Eine Person sitzt an einem Tisch und arbeitet mit konzentriertem Blick an einem Laptop. Eine kleine Pflanze und ein paar Bleistifte sind auf dem Tisch.
Kontoregistrierung

Erste Schritte mit nutzungsbasierter Bezahlung

Sie müssen vorab keinen Prepaidtarif eingehen und können jederzeit kündigen.