こんにちは、ないとめあです。
今日もブログにお越しいただきありがとうございます。
AIがもっともらしい嘘をつく「ハルシネーション」。これを防ぎ、確実な情報源から回答を得るための具体的な手順をまとめました。
① NotebookLMに「ソース」を読み込ませる
最も確実な方法は、GoogleのRAG特化型ツール「NotebookLM」を使うことです。
- NotebookLM公式にアクセスします。
- 「新しいノートブック」を作成し、根拠としたい資料(PDF、テキスト、URLなど)をアップロードします。
- 根拠:1ノートブックあたり最大50ソース、合計2,500万文字までの情報を参照可能です。
② プロンプト(指示文)で「逃げ道」を作る
質問する際、AIに「知らないことは知らないと言わせる」制約を加えるのがコツです。
【推奨プロンプト例】
「提供したソースの内容のみに基づいて回答してください。ソースに記載がない場合は、推測で答えず必ず『記載なし』と回答してください。」
③ インライン引用(出典)を必ず確認する
回答の中に表示される「番号([1]など)」を必ずチェックしましょう。
- 番号をクリックすると、資料のどのページ・どの文章を引用したかが即座に表示されます。
- 引用元が表示されない回答は、AIの勝手な推測(ハルシネーション)である可能性が高いと判断できます。
では、また!




