RAG(Retrieval-Augmented Generation)は、LLMの生成処理に外部情報の検索を組み合わせる技術。
日本語では「検索拡張生成」「取得拡張生成」と呼ばれることがある。読みは「ラグ」。
何をする技術か
LLMに質問を投げる前後で、検索システムから関連情報を取得し、その情報を文脈として渡して回答を生成する。
基本フロー:
- ユーザー入力を受け取る
- 関連ドキュメントを検索して取得する
- 取得結果をプロンプトへ追加する
- LLMが回答を生成する
期待できる効果
- モデル学習時点より新しい情報を回答に反映しやすい
- 回答の根拠を出典として示しやすい
- 事実に基づかない出力(ハルシネーション)を抑制しやすい
注意点
- 検索精度が低いと、回答品質も下がる
- チャンク分割や埋め込み設計で性能差が出る
- 検索結果をそのまま信頼せず、最終的な検証は別途必要
実務で見るポイント
RAG では生成モデルそのものより、検索対象の設計が回答品質を大きく左右する。チャンク分割、埋め込み、検索条件が雑だと、答えだけ整っても根拠が弱くなる。
つまり LLM の問題として見るより、retrieval の品質問題として切り分ける方が実務では効く。
実務メモ
RAG(Retrieval-Augmented Generation) は、rag、llm、retrieval、ai の文脈で出てくることが多い。辞書的な定義だけでなく、この語で何を短く言い表したいのかまで揃えておくと会話がぶれにくい。
近い言葉と混ぜると説明が曖昧になりやすいので、対象、役割、使う場面を一段だけ具体化して捉えるのが楽。用語集では、その入口として押さえておくと十分。
hsb.horse