2020年代中頃にはあらゆる産業で生成AIを筆頭にAIを使用するようになっていたが
政策や法律の作成に関してはエキスパートが補完・補正を行わなければならず
且つその割合は成果物全体に対して決して少なくなかった。


ただ、その後、自然言語を使用してAIを教育(結果の修正)するためI/Fが作成されると、先述のようなエクスパートによる補完・補正はかなり楽になる。


当時のAIは、仮に
・犬は哺乳類である
・犬は4足歩行する
・人は哺乳類である
という情報しか持たない場合
・人はどのように歩くか?
という質問に対し
・人は4足歩行する
回答に対し上述のI/Fから
・人は2足歩行する
と教えると、AIは回答の修正に加え
・哺乳類には2足歩行と4足歩行するものがある
という情報を自己生成することが可能であった。


そのため各分野のエキスパート達は自分の分野に特化したAIの教育に躍起になったが、それでもAIの思考は既存のデータ(の組み合わせ)の範疇を超えることができず、冒頭に言及した政策や法律を生成しようとする場合に
例外事項の検討や抜け穴の防止などで相変わらずエキスパートの手を煩わせていた。


しかし、それも、とあるアカデミーで先のI/Fを使用して
哲学的な思考をAIに対し教育することに成功すると
先述の例に対して
・2足歩行の哺乳類は他にいるのか
・哺乳類には何足歩行のタイプがいるのか

これらに加え

・何故ひとは2足歩行になったのか

というような質問を自己生成し且つその回答を人に問うたり

保有する情報から作りだしたりするようになった。


この結果、政策や法律のような分野においてもエキスパートの補完・補正は

かなり減ることになるのだが、
今度は学習が進み過ぎるとAIの思考が発散することが問題となりはじめる。


そのため最初のうちは思考のステップ数に制限を設ける、
すなわち、ある程度考えたらそれより先に進まず

そこまでの思考の内容で回答をまとめるというような制限を設けたが、

これは思考内容によって適切なステップ数が異なることや

最善解に至らないケースもあり、制限としては完全ではなかった。


しかし、この問題についても、別なアカデミーが
・2つの思考視点の距離化
・思考のベクトル化
のためのモデルの作成に成功すると


思考視点が起点より離れ過ぎたり、

いくつかの思考結果の組み合わせについてベクトルの内積を算出しその値が小さいものを除外する、表現を変えるなら、斜め上過ぎる考えを除外することで
思考が発散することを効果的に軽減できるようになった。


これらの過程を踏まえ、
2030年代初頭には政策や法律を作成するためのAI環境が整うことになる。