OMÓWIENIE
Ponowne definiowanie możliwości za pomocą protokołu SLM
- Zmaksymalizuj możliwości sztucznej inteligencji, zmniejsz zużycie zasobów i zapewnij opłacalne wdrożenia generatywnej sztucznej inteligencji w swoich aplikacjach.
- Skróć czas reakcji w interakcjach w czasie rzeczywistym, systemach autonomicznych, aplikacjach wymagających niskich opóźnień i innych krytycznych scenariuszach.
- Uruchamiaj rozwiązania Phi w chmurze, na brzegu sieci lub na urządzeniu, co zapewnia większą elastyczność wdrażania i obsługi.
- Modele Phi zostały opracowane zgodnie z zasadami Microsoft AI: odpowiedzialności, jawności, uczciwości, niezawodności i bezpieczeństwa, prywatności i ochrony oraz integracji.
PRZYPADKI UŻYCIA
Wykorzystaj modele Phi w aplikacjach generatywnej sztucznej inteligencji
Wdrożenia lokalne
Skuteczne działanie w środowiskach offline, w których prywatność danych jest najważniejsza lub łączność jest ograniczona.
Dokładne i istotne odpowiedzi
Generuj bardziej spójne, dokładne i kontekstowo istotne wyniki dzięki rozwiniętemu oknu kontekstowemu.
Scenariusze związane z opóźnieniem
Wdrażaj na urządzeniach brzegowych, aby dostarczać szybsze odpowiedzi.
Zadania ograniczone kosztowo
Używaj modelu Phi do prostych zadań, aby zmniejszyć wymagania dotyczące zasobów i obniżyć koszty bez obniżania wydajności.
Dostosowywanie i precyzja
Zwiększ wydajność, dostrajając modele za pomocą danych specyficznych dla danej domeny.
ZABEZPIECZENIA
Wbudowane Zabezpieczenia i zgodność
Firma Microsoft zobowiązuje się do zainwestowania 20 mld USD w cyberbezpieczeństwo w ciągu pięciu lat.
Zatrudniamy ponad 8 500 ekspertów z dziedziny analizy zabezpieczeń i zagrożeń w 77 krajach.
Platforma Azure ma jeden z największych portfeli certyfikatów zgodności w branży.
CENY
Modele Phi
Phi
Modele Phi są dostępne bezpłatnie do wdrażania w czasie rzeczywistym za pośrednictwem katalogu modeli usługi Azure AI. Są one również dostępne na stronach Hugging Face i Ollama.
Phi w modelach jako usługa
Modele Phi są dostępne z rozliczeniem płatności zgodnie z rzeczywistym użyciem za pośrednictwem interfejsów API wnioskowania.
POWIĄZANE PRODUKTY
Nasze produkty działają lepiej razem
Używaj modeli Phi z innymi produktami platformy Azure AI, aby tworzyć zaawansowane i kompleksowe rozwiązania.
ZASOBY
Już dziś rozpocznij pracę z modelem Phi
FAQ
Często zadawane pytania
-
- Phi-1: Na potrzeby kodowania w języku Python
- Phi-1.5: Na potrzeby wnioskowania i zrozumienia
- Phi-2: Na potrzeby rozumienia języka
- Phi-3: Do zadań związanych z rozumieniem języka i poprawnym wnioskowaniem
*Phi-3 dobrze sprawdza się również w testach porównawczych kodowania.
- Tak, wszystkie modele począwszy od Phi-3 zostały zaprojektowane do zastosowań produkcyjnych i przeszły rygorystyczne szkolenia w zakresie bezpieczeństwa.
- Model Phi jest dostępny za pośrednictwem katalogu modeli w usługach Studio AI platformy Azure, Hugging Face i Ollama.
- Rozwiązanie Phi jest dostępne w regionach, w których dostępna jest usługa Studio AI platformy Azure.
- Tak, modele Phi są dostępne za pośrednictwem platformy MaaS.
- Technologia Phi może być precyzyjnie dostrojona przy użyciu zestawu SDK usługi Azure Machine Learning. Oto przykładowy notes. Dostosowywanie bez użycia kodu jest dostępne w usługach Azure Machine Learning i Studio AI platformy Azure.
- Oprogramowanie Phi-mini zostało przeszkolone i zoptymalizowane pod kątem języka angielskiego, a jego możliwości w innych językach są ograniczone. Zachęcamy do korzystania z programu Microsoft Translator w celu tłumaczenia poleceń i odpowiedzi, aby uzyskać najlepsze wyniki.
- Październik 2023 r.
Wprowadzenie
Rejestracja konta
Rozpocznij przy użyciu bezpłatnego konta
Zacznij od środków na korzystanie z platformy Azure w wysokości 200 USD.
Rejestracja konta
Wprowadzenie do cen dotyczących płatności zgodnie z rzeczywistym użyciem
Nie ma żadnych zobowiązań z góry — możesz zrezygnować w dowolnym momencie.