「マニュアルを学習させたAIは現場で使えない」
この主張は、近年のAI導入現場で頻繁に聞かれるものだ。

その理由としてよく挙げられるのが「コンテキスト(文脈)が不足しているから」という説明である。
一見すると納得感のある説明だが、このまま受け取るのは危険である。

なぜなら、この説明は問題を“それっぽい言葉”でまとめているだけで、何が欠けているのかを構造的に説明していないからだ。

本稿では、「なぜマニュアルAIは使えないのか」を、より深い構造から分解する。


---

コンテキストという言葉の曖昧さ

まず押さえるべきは、「コンテキスト」という言葉の危うさである。

一般にコンテキストとは、

・会社特有の事情
・過去の経緯
・人間関係
・暗黙知
・現場の空気

といったものを指すとされる。

しかしこれは裏を返すと、

何でもコンテキストと呼べてしまう

ということでもある。

この状態では、

・何を取得すべきなのか
・どこまで再現すればよいのか

が定義できない。

つまり「コンテキスト不足」という説明は、

> 問題の本質を特定しているのではなく、曖昧に包み込んでいるだけ



である。


---

なぜ現場で「使えない」と判断されるのか

では、実際に何が起きているのか。

これは行動生成の構造で整理すると明確になる。

行動は次のように表現できる。

行動 = 機会 × f(想起 × 理解 × 納得 × 実行可能 × 評価期待)

AIの出力が「使われるかどうか」は、この各要素で決まる。

マニュアルAIが失敗するのは、これらが崩れているからだ。


---

理解がズレている

AIはマニュアルに基づいた「一般的な正解」は出す。

しかし現場では、

・例外条件
・状況依存
・特殊事情

が常に存在する。

その結果、AIの理解は現実の条件と一致しない。

これは単なる知識不足ではない。
条件不一致による構造的なズレである。


---

納得できない

ベテラン社員はAIの回答に対してこう感じる。

「それは理屈としては正しいが、現実では通用しない」

ここで欠けているのは、

・なぜその判断が選ばれたのか
・何を優先したのか

という判断の背景である。

つまりAIは、

意思決定の理由を持たない

ため、納得が生まれない。


---

実行可能でない

現場には必ず制約がある。

・人手が足りない
・時間がない
・顧客との関係性がある
・優先順位が異なる

AIはこれらを考慮せずに最適解を提示する。

しかしそれは現場では実行できない。

これは「コンテキスト不足」ではなく、

> 制約条件の未モデリング



という問題である。


---

評価期待が存在しない

もう一つ見落とされがちな要因がある。

それは「評価期待」である。

AIの提案を採用したとき、

・評価されるのか
・責任は誰が負うのか

が不明確な場合、人は動かない。

つまりAIは、

行動を引き起こすインセンティブ設計を持っていない

のである。


---

問題の正体は「コンテキスト」ではない

ここまでを整理すると、結論は明確になる。

問題は「コンテキストがないこと」ではない。

本質は次の3つに集約される。

・制約条件がモデル化されていない
・判断基準(何を優先するか)が明示されていない
・行動選択のロジックが存在しない

つまり、

> AIに「意思決定構造」が存在していない



ことが問題なのである。


---

「履歴をためれば解決する」という誤解

記事では、業務プロセスや履歴を蓄積することで問題が解決するとされている。

確かに、

・誰が何をしたか
・どのようなやり取りがあったか

といった情報は重要である。

しかしここには大きな誤解がある。

それは、

> 履歴があれば意思決定が再現できるという前提



である。

実際には、

履歴 = 過去の記録
意思決定構造 = 判断のルール

であり、両者は異なる。

履歴からは、

・なぜその判断をしたのか
・どの制約を優先したのか

までは自動的には復元できない。

したがって、

履歴の蓄積だけでは問題は解決しない


---

ベテランがやっていることの正体

現場のベテランは何をしているのか。

彼らは単にマニュアルを適用しているわけではない。

・状況を読み
・制約を把握し
・優先順位を決め
・意図的にルールを曲げる

つまり、

> 状況 × 制約 × 優先順位 から行動を生成している



のである。

一方でAIは、

・マニュアル検索
・類似ケース参照

しかしていない。

この差が、「使える/使えない」の分岐点になる。


---

本来やるべき設計

ではどうすればよいのか。

方向性は明確である。


---

① 状況を定義する

・どの状態で
・何が起きているのか


---

② 制約を明示する

・リソース
・時間
・関係性
・ルール


---

③ 判断基準を定義する

・何を優先するのか
・何を犠牲にするのか


---

④ 行動選択ロジックを構築する

・どの条件で
・どの行動を取るのか


---

その上で初めて、

履歴やデータが意味を持つ。


---

結論

「マニュアルを学習させたAIが使えない理由」は、
単なるコンテキスト不足ではない。

本質は、

> 意思決定の構造が記述されていないこと



にある。

コンテキストという言葉で問題をまとめてしまうと、

・何を設計すべきか
・どこを改善すべきか

が見えなくなる。

これからのAI活用において重要なのは、

データを増やすことではない。

意思決定を構造として記述すること

である。

ここに踏み込まない限り、
どれだけ高度なAIを導入しても、現場では「使えない」と評価され続けるだろう。