概要
SLM でできることの再定義
- AI 機能を最大限に活用し、リソースの使用量を削減し、アプリケーション全体でコスト効率の高い生成 AI のデプロイを実現します。
- リアルタイムの対話、自律システム、低待機時間を必要とするアプリ、その他の重要なシナリオで応答時間を短縮します。
- クラウド、エッジ、またはデバイスで Phi を実行すると、デプロイと操作の柔軟性が向上します。
- Phi モデルは、説明責任、透明性、公平性、信頼性と安全性、プライバシーとセキュリティ、包括性という Microsoft AI の原則に従って開発されました。
ユース ケース
生成 AI アプリケーションに Phi を使用する
ローカル デプロイ
データ プライバシーが最も重要であるか、接続が制限されているオフライン環境で効果的に運用します。
正確で関連性の高い回答
拡張されたコンテキスト ウィンドウを使用して、より一貫した、正確で、コンテキストに関連した出力を生成します。
待ち時間の範囲内のシナリオ
エッジでデプロイし、より高速な応答を提供します。
コスト制約付きタスク
単純なタスク に Phi を使用して、パフォーマンスを損なうことなく、リソース要件を削減し、コストを削減します。
カスタマイズと精度
ドメイン固有のデータを使用してモデルを微調整することで、パフォーマンスを向上させます。
セキュリティ
セキュリティとコンプライアンスを内蔵
Microsoft は、5 年間で 200 億米国ドルをサイバーセキュリティに投資 しました。
77 か国で 8,500 人を超えるセキュリティおよび脅威インテリジェンスの専門家 を採用しています。
Azure には業界最大級の コンプライアンス認定ポートフォリオ があります。
価格
Phi モデル
Phi
Phi モデルは、Azure AI モデル カタログを通じたリアルタイムでのデプロイ用として無料で利用できます。また、Hugging Face と Ollama でも利用できます。
サービスとしてのモデルの Phi
Phi モデルは、推論 API を介して従量課金制で利用できます。
関連製品
Microsoft 製品の連携強化
Phi モデルをその他の Azure AI 製品と共に使用して、高度で包括的なソリューションを構築します。
リソース
Phi の使用を今すぐ開始する
FAQ
よくあるご質問
-
- Phi-1:Python コーディング用
- Phi-1.5:推論と理解用
- Phi-2:言語理解用
- Phi-3:言語の理解と推論のタスク用
*Phi-3 は、コーディング ベンチマークでも優れたパフォーマンスを発揮します。
- はい。Phi-3 以降のモデルはすべて運用環境のユース ケース向けに設計されており、厳格な安全性のトレーニング後に使用されています。
-
- Phi は、Azure AI Studio が利用可能なリージョン間で利用できます。
- はい。Phi モデルは、MaaS を通じて入手できます。
- Phi は、Azure Machine Learning SDK を使用して微調整できます。サンプル ノートブックを次に示します。コードなしの微調整は、Azure Machine Learning と Azure AI Studio で実行できます。
- Phi-mini は英語向けにトレーニングおよび最適化されており、その他の言語での機能は制限されています。Microsoft Translator を使用してプロンプトと応答を翻訳し、最適な結果を得ることをおすすめします。
- 2023 年 10 月
概要
アカウントのサインアップ
無料アカウントで開始する
USD$200 の Azure クレジットで開始します。
アカウントのサインアップ
従量課金制の価格で開始する
前払いのコミットメントはなく、いつでもキャンセルできます。