こんにちは、ないとめあです。

今日もブログにお越しいただきありがとうございます。

 

 AIがもっともらしい嘘をつく「ハルシネーション」。これを防ぎ、確実な情報源から回答を得るための具体的な手順をまとめました。

① NotebookLMに「ソース」を読み込ませる

最も確実な方法は、GoogleのRAG特化型ツール「NotebookLM」を使うことです。

  • NotebookLM公式にアクセスします。
  • 「新しいノートブック」を作成し、根拠としたい資料(PDF、テキスト、URLなど)をアップロードします。
  • 根拠:1ノートブックあたり最大50ソース、合計2,500万文字までの情報を参照可能です。

② プロンプト(指示文)で「逃げ道」を作る

 質問する際、AIに「知らないことは知らないと言わせる」制約を加えるのがコツです。

【推奨プロンプト例】
「提供したソースの内容のみに基づいて回答してください。ソースに記載がない場合は、推測で答えず必ず『記載なし』と回答してください。」

③ インライン引用(出典)を必ず確認する

回答の中に表示される「番号([1]など)」を必ずチェックしましょう。

  • 番号をクリックすると、資料のどのページ・どの文章を引用したかが即座に表示されます。
  • 引用元が表示されない回答は、AIの勝手な推測(ハルシネーション)である可能性が高いと判断できます。

 

 

では、また!