検索拡張生成(RAG)とは
よくある質問
ハルシネーション(幻覚)とは、人工知能が生成する、あたかも真実のように見えるが実際には完全に虚偽の情報や発言のことです。これは、AI モデルが真偽を判断できず、確率的に最も適切とされる単語の並びを基にテキストを生成する過程で生じる現象です。
「RAG モデル」という言葉が使用されていますが、RAG は実際にはモデルではなく、質問に答えるための外部知識ソースを提供することによって LLM のネイティブ能力を拡張するアーキテクチャフレームワークです。
ファウンデーションモデルとは、言語や画像などさまざまな分野で幅広く活用できる、大規模な事前学習済みモデルのことです。汎用性が高く、特定のニーズに応じてファインチューニングできます。
LLM(大規模言語モデル)はファウンデーションモデルの一種であり、特にテキスト生成や翻訳、質問応答などの言語処理タスクに特化して設計されています。
LLM は、ファウンデーションモデルに含まれており、ファウンデーションモデルは、言語以外の多様なタスクに対応できるのが特長です。