VUE D’ENSEMBLE
Redéfinir les possibilités offertes par les SLM
- Optimisez les fonctionnalités d’IA, diminuez l’utilisation des ressources et veillez à des déploiements d’IA générative économiques dans vos applications.
- Accélérez les temps de réponse des interactions en temps réel, des systèmes autonomes, des applications exigeant une latence faible et d’autres scénarios critiques.
- Exécutez Phi dans le nuage, à la périphérie ou sur l’appareil, ce qui permet une plus grande flexibilité de déploiement et d’opération.
- Les modèles Phi sont développés conformément aux principes d’IA de Microsoft : responsabilité, transparence, impartialité, fiabilité et sécurité, confidentialité et inclusion.
CAS D’USAGE
Utiliser Phi pour des applications d'IA générative
Déploiements locaux
Travaillez efficacement dans des environnements hors connexion où la confidentialité des données est primordiale ou la connectivité est limitée.
Réponses pertinentes et précises
Générez des résultats plus cohérents, précis et pertinents contextuellement avec une fenêtre de contexte développée.
Scénarios avec limite de latence
Déployez en périphérie pour livrer des réponses plus rapides.
Tâches avec des contraintes de coûts
Utilisez Phi pour des tâches simples afin de réduire les exigences de ressource et diminuer les coûts sans compromettre les performances.
Personnalisation et précision
Optimisez les performances en ajustant les modèles avec des données spécifiques à un domaine.
SÉCURITÉ
Sécurité et conformité intégrées
Microsoft s’est engagé à investir 20 USD$ milliards dans la cybersécurité sur cinq ans.
Nous employons plus de 8 500 experts en sécurité et en veille des menaces dans 77 pays/régions.
Azure possède l’un des plus grands portefeuilles de certifications de conformité du secteur d’activité.
TARIFICATION
Modèles Phi
Phi
Les modèles Phi sont disponibles gratuitement pour un déploiement en temps réel via le catalogue de modèles Azure AI. Ils sont également disponibles sur Hugging Face et Ollama.
Phi dans des modèles en tant que service
Les modèles Phi sont disponibles avec la facturation du paiement à l’utilisation via les API d’inférence.
PRODUITS CONNEXES
Nos produits fonctionnent mieux ensemble
Utilisez des modèle Phi avec d’autres produits Azure AI pour générer des solutions avancées et complètes.
RESSOURCES
Bien démarrer avec Phi dès aujourd’hui
Forum aux questions
Questions fréquentes
-
- Phi-1 : Pour le codage Python
- Phi-1.5 : Pour le raisonnement et la compréhension
- Phi-2 : Pour la compréhension du langage
- Phi-3 : Pour des tâches de raisonnement et de compréhension du langage
*Phi-3 fonctionne également parfaitement sur des points de référence de codage.
- Oui, les modèles à partir de Phi-3 sont tous conçus pour les cas d’usage de production et ont fait l’objet d’une surveillance rigoureuse après la formation.
-
- Phi est disponible dans toutes les régions où Azure AI Foundry est disponible.
- Oui. Les modèles Phi sont disponibles via MaaS.
- Phi peut être affiné à l’aide du SDK Azure Machine Learning. Voici un exemple de notebook. Le réglage fin sans code est disponible dans Azure Machine Learning et Azure AI Foundry.
- Phi-mini a été entraîné et optimisé pour l’anglais et ses capacités dans d’autres langues sont limitées. Nous vous conseillons vivement d’utiliser Traducteur Microsoft pour traduire des invites et des réponses pour obtenir les meilleurs résultats.
- Octobre 2023
Démarrer
Inscription au compte
Commencez avec un compte gratuit
Commencez par un crédit Azure de 200 $ USD.
Inscription au compte
Démarrer avec la tarification du paiement à l’utilisation
Pas d’engagement initial. Annulation possible à tout moment.