Trace Id is missing
メイン コンテンツへスキップ
Azure

大規模言語モデル (LLM) とは?

LLM のしくみの概要を確認し、AI 搭載ソリューションの構築に使用される方法についてご確認ください。

LLM の意味

大規模言語モデル (LLM) は、機械学習手法を通してトレーニングを受けたデータを使用して、自然言語 (または人間のようなテキスト) を理解して生成する高度な AI システムです。LLM はテキストベースのコンテンツを自動生成し、それをさまざまな業界の数多くのユース ケースに適用することで、世界中の組織で効率性を高め、コスト削減を向上します。 

まとめ

  • LLM は、自然言語を理解して生成できる高度な AI システムです。
  • LLM はさまざまなデータ ソースからの情報を処理して組み込むために、ディープ ラーニング アーキテクチャと機械学習手法を活用します。
  • LLM は言語生成や翻訳などの大きなベネフィットをさまざまな分野に提供します。
  • LLM は画期的ですが、課題にも直面します。それには、計算要件、倫理的な懸念、コンテキストへの理解の限界などがあるかもしれません。
  • これらの課題にもかかわらず、組織ではジェネレーティブ事前トレーニング済みトランスフォーマー (GPT) シリーズとトランスフォーマー (BERT) からの双方向エンコーダー表現を既に使用して、コンテンツの作成、チャットボット、翻訳、センチメント分析などのタスクを行なっています。

LLM のしくみ

LLM のこれまでの経緯

LLM は、現代における開発ですが、自然言語処理 (NLP) の研究は 1950 年にまでさかのぼります。その年に、アラン・チューリングがマシン間のインテリジェントな動作を測定するチューリング テストを開始しました。テストでは、人間の判定者が一連の質問を使用してコンピューターに話しかけ、マシンと人間のどちらに話しているのかを判断する必要があります。
1980 年代から 1990 年代までに、NLP はロジック実験からよりデータ駆動のアプローチに移行しました。文で前の単語に基づいてどの単語が次に来る可能性が高いかを予測する能力により、n グラムなどの統計言語モデルが新元号への道を開きました。2010 年代初頭までに、新しいニューラル ネットワークによってこれらの言語モデルの機能がさらに拡張され、単語の表現と意味をより深く理解するために単語の順序を決定する以上に進むことができるようになりました。
これらの新しい開発は 2018 年に画期的な成果を上げ、8 人の Google サイエンティストが機械学習に関する画期的な研究 『Attention is All You Need』を執筆および出版しました。特に、この研究では、複雑なテキスト情報をより正確かつ大規模に管理および理解できる革新的なニューラル ネットワーク フレームワークであるトランスフォーマー アーキテクチャが導入されました。現在、トランスフォーマーは GPT シリーズや BERT など、今日最も強力な LLM の一部の基になっています。

基本アーキテクチャ

現在の最先端の LLM では、トランスフォーマーやその他のディープ ニューラル ネットワーク フレームワークなどのディープ ラーニング アーキテクチャを使用して、さまざまなデータ ソースからの情報を処理しています。トランスフォーマーは、テキストなどのシーケンシャル データを処理する際に特に効果的です。これにより、言語の生成や翻訳などのタスクに対して自然言語を理解して生成できます。 
トランスフォーマーは、エンコーダーとデコーダーの 2 つの主要コンポーネントで構成されます。多くの場合、これらのコンポーネントは連携してシーケンスの処理と生成を行います。エンコーダーは生のテキスト データを受け取り、その入力をモデルで分析できる不連続要素に変換します。デコーダーは、そのデータを一連のレイヤーを介して処理して最終的な出力を生成します。たとえば、生成された文で構成される場合があります。トランスフォーマーは、モデルまたはタスクの種類に応じて、エンコーダーまたはデコーダーのみで構成することもできます。

トレーニング プロセス

LLM のトレーニング プロセスは、データ収集、モデル トレーニング、微調整の 3 つの主要なステージで構成されます。 
データ収集フェーズでは、モデルはインターネット リソース、書籍、記事、データベースなど、さまざまなソースからの大量のテキスト データに公開されます。また、データはクリーンアップ、処理、標準化され、NoSQL データベースに保存されるため、言語パターン、文法、情報、コンテキストに基づいてモデルをトレーニングするために使用できます。 
事前学習フェーズでは、モデルはデータ内の言語の理解を構築し始めます。これは、モデルがそのコンテキストに基づいてテキストを予測することを学習する、教師なし大規模なタスクによって実現されます。一部の手法には、モデルがシーケンス内の次の単語を予測することを学習する自動回帰モデリングと、マスクされた言語モデリングが含まれます。このモデルでは、マスクされた単語が埋め込まれ、コンテキストが理解されます。 
最後に、微調整フェーズでは、より小さなタスク固有のデータセットでモデルをさらにトレーニングします。このプロセスでは、モデルの知識が改善され、感情分析や翻訳などの特定のタスクのパフォーマンスが向上し、さまざまなアプリケーションで使用できるようになります。

主なコンポーネント

トランスフォーマー モデルは、未加工のテキストをトークンと呼ばれる小さな基本的なテキスト単位に分割します。トークンは、ユース ケースに応じて、単語、単語の一部、または個々の文字で構成される場合があります。これらのトークンは、順序、意味、コンテキストをキャプチャする高密度の数値表現に変換されます。これらの表現は埋め込みと呼ばれ、自己注意とニューラル ネットワークの 2 つのサブレイヤーで構成されるレイヤーのスタックを介して渡されます。
どちらのレイヤーも、モデルが効果的に処理できるフォームにテキストを変換するのに役立ちますが、自己注意メカニズムはトランスフォーマー アーキテクチャの重要なコンポーネントです。自己注意メカニズムは、モデルがテキスト シーケンスのさまざまな部分にホームインし、位置に関係なくシーケンス内の他のトークンに対して情報の値を動的に比較することを可能にするメカニズムです。また、このメカニズムは記述された言語の複雑な依存関係、関係、コンテキストの微妙な違いをキャプチャする能力を LLM に与えるものでもあります。

ベネフィットと課題

ベネフィット

LLM には、仕事や社会の大きな進歩に貢献した多くのベネフィットがあります。

言語生成と翻訳の改善

LLM は単語間の微妙な関係を理解してキャプチャできるため、自然で人間のようなテキストの生成に優れています。そのため、言語生成が向上します。彼らは、クリエイティブでコンテキストに応じた適切な応答を、流動的かつ一貫して生成でき、新人を含むさまざまな形式で行うことができます。
多言語データでトレーニングされた LLM は、意味のコンテキスト化と見つけ出しができるため、非常に正確な翻訳を実行することもできます。特定の言語セットでモデルをトレーニングすると、慣用句、表現、その他の複雑な言語機能を処理する機能を微調整し、自然で流れるような翻訳が得られます。

さまざまな分野のアプリケーション

LLM は、医療、財務、カスタマー サービスなど、さまざまな分野で多数のアプリケーションを持つ汎用性の高いツールです。
 
医療の分野では、LLM で次のことができます: 
  • 患者レポートを分析して、考えられる状態を確認し、予備的な診断を提供します。 
  • 患者メモと退院の概要を生成し、管理タスクを合理化します。 
  • 患者の履歴に基づいて、パーソナライズされた治療計画と医療を提案します。  
  金融の分野では、LLM で次のことができます:
  • 不正アクセスを示す可能性のある財務データ全体の異常なアクティビティを特定します。 
  • 市場の傾向と財務レポートを分析して、財務リスクを評価します。 
  • 独自の財務履歴と目標に基づいて、パーソナライズされた推奨事項を提案します。  
  カスタマー サービスでは、LLM で次のことができます:
  • 会話エージェントとチャットボットを使用して、自動化されたカスタマー サポートを促進します。 
  • お客様に終日サポートを提供することで、組織のサービス範囲を拡大します。
  • 一般的な質問に基づいてコンテンツを生成することで、ドキュメントの作成と更新に役立ちます。  

課題

LLM には重要なベネフィットがありますが、考慮すべき課題もあります。

計算とエネルギーの要件

LLM は強力ですが、運用には大量のコンピューティング リソース、ストレージ、エネルギー消費量が必要です。トレーニング中、トランスフォーマーは入力シーケンスの長さに合わせてスケーリングするため、テキストが長くなるほど、必要なメモリの量が増えます。これらの要求は高価であるだけでなく、環境に大量の炭素を生成します。
クラウド コンピューティング プラットフォームは、柔軟でスケーラブルなインフラストラクチャを提供することで、LLM の負荷の高いコンピューティング負荷をサポートし、組織が独自のモデルの開発を開始しやすくすることができます。それでも、LLM の環境への影響は課題を引き起こしており、よりエネルギー効率の高いモデルと手法の必要性を示しています。

倫理的な懸念 (バイアス、誤った情報など)

LLM は、トレーニング対象のデータと同じくらい優れているだけです。トレーニング データ内の特定のグループに対する判別バイアスがある場合、モデルはこれらの姿勢を強調します。モデルが公平なままになるようにこれらのバイアスを特定して軽減することは、継続的なタスクであり、頻繁かつ一貫した人間の監視を必要とします。
また、LLM は説得力のある事実的に誤解を招く情報を生成し、その結果、誤った情報、偽のニュース、フィッシング詐欺メール、およびその他の形式の有害なコンテンツが広がります。コンテンツ モデレーション ガイドラインはリージョンによって異なる場合もあり、移動が困難になります。その結果、多くの組織では、LLM を業務に導入する際に、ユーザーの信頼を構築して維持することが困難な場合があります。

コンテキストと微妙な違いを理解する上での制限事項

LLM は言語でのパターンの識別に優れていますが、より微妙な理解を必要とする新しいコンテキストまたは不明なコンテキストにまだ苦労する可能性があります。その結果、機密性の高い独自のデータに基づいてトレーニングされた LLM は、誤ってトレーニング データから機密情報を生成または公開する可能性があります。 
この問題に対処すると、特に LLM の内部作業に透明性がないことが多いため、大きな課題が生じる可能性があります。これは、全体的なアカウンタビリティの欠如と、信頼構築に関する問題に寄与する可能性があります。 

種類とユース ケース

GPT シリーズ

2018 年に OpenAI によって初めて開発された GPT シリーズでは、データ収集、事前学習、および LLM の微調整の基本的な概念が導入されました。2019 年にリリースされた GPT-2 では、モデルの機能が大幅にスケールアップされ、コンテキストに関連する言語を生成する機能が向上しました。GPT-3 は、複雑なプロンプトとタスクを処理するためのモデルの容量を高度にしました。最新のイテレーション GPT-4 は 2023 年にリリースされ、プロンプトに対するより正確で微妙な応答を提供します。一方、バイアスを含む以前の課題の一部のモデルにも対処しています。 
現在、GPT は自然言語生成の分野で可能性の境界を広げ続けています。シリーズの各モデルは、前のモデルに基づいて構築され、AI を活用したイノベーションを推進しています。 

BERT とそのバリアント

2018 年に Google によって開発された BERT は、LLM の可能性の標準を設定した画期的なモデルです。一方向の方法 (左から右または右から左へ) でテキストを処理する GPT シリーズとは異なり、BERT は双方向アプローチを採用します。双方向モデルは、双方向から各単語のコンテキストを同時に処理します。これにより、BERT は次の文の予測に加えて、マスクされた言語モデリングを実行できます。研究者は、センチメント分析などのタスクで BERT を微調整し、結果として新しいベンチマークを設定することで、この分野のさらなる進歩にも貢献しています。  

その他の注目すべきモデル

堅牢に最適化された BERT アプローチ (RoBERTa) は 2019 年に Facebook AI によって開発されました。事前学習プロセスを最適化することで BERT の双方向トランスフォーマー アーキテクチャを拡張する BERT モデルのバリエーションです。RoBERTa はより大きなデータ セットを使用して、より長い期間トレーニングされます。また、マスクされた言語モデリングのみに焦点を当てています。これにより、RoBERTa はコンテキストと微妙な違いをキャプチャする堅牢な機能を示すことができます。 
Google Research によって考案されたテキスト間転送トランスフォーマー (T5) は、もう 1 つの注目すべき LLM です。従来のモデルと同様に、T5 はトランスフォーマー アーキテクチャに基づいて構築されており、エンコーダーとデコーダーを使用して事前学習フェーズ中にテキストを処理します。従来のモデルとは異なり、T5 は入力と出力の両方をテキスト文字列として扱い、アーキテクチャを簡素化し、トレーニング プロセスを合理化します。T5 モデルは、さまざまなタスクを処理できる適応可能な汎用モデルです。

コンテンツの作成と要約

LLM は、魅力的かつ有益でコンテキストに応じた適切なコンテンツを、さまざまなスタイルや形式で生成できます。メッセージが表示されたら、記事、レポート、ブログ投稿、メール、マーケティング コピー、さらにはコード スニペットを生成できます。   
概要に関しては、LLM は、大量のテキストを簡潔で正確なスナップショットに引き出す独自の機能で際立っています。元のコンテンツの元のコンテキストと意味を維持しながら、重要なポイントを提示できます。研究者は既に、LLM を使用して研究論文、記事、プレゼンテーション、会議ノートを要約することで、時間を節約し、生産性を向上しています。

会話エージェントとチャットボット

会話エージェントとチャットボットは、LLM の高度な自然言語処理機能に依存して、人間のような対話を生成します。ユーザー入力を解釈し、流動的かつ自然で、コンテキストに関係するかたちで応答します。質問に回答できるだけでなく、長く複雑な対話を行うこともできます。 
チャットボットと仮想アシスタントの追加により、企業は顧客に 24 時間サポートを提供できるようになり、サービスの可用性を拡大し、応答時間を改善し、全体的な顧客満足度を向上させることができます。

言語翻訳と感情分析

多言語データセットに関して広範にトレーニングされた LLM は、さまざまな言語で非常に正確な翻訳を生成します。従来のモデルとは異なり、LLM は慣用式などの言語の微妙さと複雑さをキャプチャでき、その結果、翻訳は流動的でコンテキストに適しています。 
LLM は、テキストの根本的な感情トーンを分析する感情分析を実行することもできます。言語の微妙な部分を処理して解釈することにより、LLM はより正確で洞察に富んだセンチメント評価を提供します。さらに、皮肉などのより微妙なセンチメントを検出することもできます。 

個人に合わせたレコメンデーション

LLM では、ユーザーの履歴やユーザー設定などのユーザー データを分析し、ユーザーの関心やニーズを反映したパーソナライズされたカスタマイズされた推奨事項を生成し、全体的なユーザー エクスペリエンスを向上することができます。 
この機能は、eコマース、コンテンツ ストリーミング、ソーシャル メディア全体で広く使用されており、カスタマイズされたレコメンデーションを提供することで、より有意義なやり取りが推進されます。LLM は、学生にパーソナライズされた学習エクスペリエンスを提供することで、教育ツールとしても使用できます。

今後の展望

研究者が理解、効率、スケーラビリティを向上させ続けるにつれて、LLM は複雑な言語タスクの処理にさらに熟達することが期待されます。LLM の導入が増加するに伴い、合理化された自動化、より大きなパーソナル化、全体的な意思決定プロセスの改善を経験する組織がますます増えています。 
研究者は、現在進行中の問題であるバイアスに対処する新しい方法を引き続き調査しています。これには、トレーニング中にバイアスに取り組むアルゴリズムのデバイアス、公平性を反映するためにデータセットを再調整できる合成データの組み込み、モデルの決定をより深く理解するための説明ツール、バイアスをより正確に特定して定量化するのに役立つ検出ベンチマークが含まれます。 
テキスト、画像、オーディオ、ビデオ データを処理するマルチモーダル モデルも、ますます高度になっています。LLM は構文と意味を評価してテキスト データを処理しますが、マルチモーダル モデルではコンピューター ビジョン手法を使用してビジュアル データを分析し、一時的な処理を通じてオーディオ データを分析します。フォーム マルチモーダル モデルのトップは、今日のテクノロジを強化すると同時に、未来のイノベーションへの道を開いています。
リソース

Azure AI に関する詳細情報

コンピューターの前に座っている人
リソース

学生開発者向けリソース

今すぐキャリアでの大きなステップを踏み出すために役立つ学習教材とプログラムをご活用ください。
輪になって座っている人のグループ
リソース

Azure リソース

チュートリアル、ホワイト ペーパー、コード サンプルなど、必要なすべての Azure リソースにアクセスできます。
コンピューターに向かって微笑んでいる人
リソース

Azure 学習ハブ

自分の役割や特定のテクノロジーに合わせてカスタマイズされたトレーニングを使用して、AI スキルを構築します。
よくあるご質問

よく寄せられる質問

  • LLM は大規模言語モデルを表しています。
  • AI は、言語だけでなく幅広いアプリケーションをカバーする幅広い分野です。これには、人間のインテリジェンスの複製を目的とするすべてのテクノロジが含まれています。特定の種類の AI モデルとして、LLM は広範な AI ランドスケープのサブセットであり、自然言語テキストの処理と生成に焦点を当てています。
  • 自然言語処理 (NLP) は、言語処理に重点を置いた包括的なフィールドを指しますが、大規模言語モデル (LLM) は、ディープ ラーニング手法を使用して言語タスクを処理する NLP のフィールド内の特定の高度な種類のモデルです。
  • 生成事前学習トランスフォーマー (GPT) は、OpenAI によって開発された特定の一連の大規模言語モデル (LLM) を指します。これらは LLM の一種であり、言語生成に特に重点を置いています。