私の弟(警視庁特命係の杉下右京)は「高機能発達障害」※です。(笑)
 
正確に言うと「精神科医に高機能発達障害と診断されただけ」です。
「精神科医の診断」は「主観」によるもので、「客観性」がありません。
 
したがって、私は弟のことを「病人」とか「障害者」と思ったことはありません。
 
※「高機能発達障害」とは
 
 発達障害者支援法に対象としてあげられているものは、
 自閉症、アスペルガー症候群その他の広汎性発達障害、
 注意欠陥多動性障害、学習障害などである。
 
 いずれも、「知的障害を伴っていない場合」は
 「高機能発達障害」ととらえることができる。
 発達のバランスが悪いために、「日常生活で何らかの不適応」がある。

 
確かに日常生活で数々の不適応がありました。
 
一例を挙げれば、子供のころ「将来、何になりたいか?」という質問に
 
 「全ての職業」の「メリット・デメリット」。自分自身の「適・不適」。
 「その職業の将来性」「賃金」「労働時間」「通勤」「転勤」などなど、
 「検討項目」が多すぎるために、結論を出せなくなり
  
 「どうしたらいいか、分からない。」
 「どう生きたらいいか、分からない。」

 
 と、たびたび「頭を抱えてしまう」ことがありました。
 
弟のようにIQが高く、運動神経も抜群で、芸術的センスもある人間にとって、
「無限の可能性」の中から「たった一つの職業」を選ぶことは「不可能」だったのです!
 
これがいわゆる「フレーム問題」※であることに気付いたのは、ごく最近の事です。
 
※「フレーム問題」とは(Wikipedia)
 
 人工知能における重要な難問の一つで、有限の情報処理能力しかないロボットには、
 現実に起こりうる「問題全てに対処する」ことができないことを示すものである。

 
従来、「フレーム問題」は「人工知能のみ」に起きる問題と思われていましたが、
人間にも起きることを発見したのは、このブログが「世界初」です。\(-_-;) オイオイ
 
 
「高機能発達障害者」に「フレーム問題」が発生することは、お分かり頂けたと思います。
ではなぜ「普通の人」には「フレーム問題」が発生しないのでしょうか?
 
理由は「ボーっと生きてるから」なのです。\(-_-;)チコちゃんか!
 
 「普通の人」はIQは低く、運動神経は無く、芸術的センスも無いから
 職業選択の幅が少なく、「ある職業に付くことしか出来ない」ので
 「悩むことが不要なだけ」なのです。
 なのに、その職業が人工知能に奪われかねないと、戦々恐々としているのです。

 
さて、冗談はこれくらいにして、
「普通の人」が「フレーム問題」を起こさない「理由」について、考えてみました。
「フレーム問題を起こさない理由」は「そこにフレームがあるから」\(-_-;)マロリーか!
 
「フレーム問題」とは「フレームが無い(際限が無い・無限)」ことが問題なのです。
「フレームがあれば(有限ならば)」問題は解決します。
 
フレームを作るのには二つの方法があります。
 
①「他人がフレームを作る」
 人間がフレームを人工知能に与えれば、「人工知能のフレーム問題」は解決します。
 
②「自らフレームを作る」
 人間には「自らフレーム(枠組み)を作る能力」があります。
 つまり『それ以上は考えない』能力です。すなわち「ボーっと生きる」能力(笑)
 
 もっとも、この能力によって「問題解決」に「支障をきたす」ことも有ります。
 
自らフレームを作る能力」には、例えば次のようなものがあります。

  1. 「好き嫌い」能力(人工知能にはない)
    「好き嫌い」によって、選択肢が減ります。(無限の選択肢が有限になる)
    職業選択で言えば、「嫌いな職業」に関しては考慮しないことが出来るのです。
  2. 「あきる(なれる)」能力(人工知能にはない)
    人間には「あきる(なれる)」能力があります。
    「あきる」とは「同じ物事が何度も続いて、いやになる」ことです。
    「いやに」ならなければ「なれる」です。
     
    つまり、「学習」して「充分理解」した事柄について「興味を失う」ことが出来ます。
    「興味を失ったこと」は、「選択肢から外してしまう」ことがあります。
     
    こうして「選択肢から外た事柄」を、無視して(考慮しないで)思考するのです。
    このような思考形態は「決断を早くする」機能がありますが、
    一方で、間違った結論に至ることも有るのです。

自らが作り出したフレームから出られないと「思い込み」や「先入観」
「古い」とか「視野が狭い」とか「石頭」とか呼ばれることになります。
 
心理学で言われる「アインシュテルング効果(構え効果)」もそうです。
 

 


 
■フレーム問題の例(Wikipediaより)
 洞窟の中にロボットを動かすバッテリーがあり、その上に時限爆弾が仕掛けられている。
 
 このままでは爆弾が爆発してバッテリーが破壊され、ロボットはバッテリー交換ができなくなってしまうので、
 洞窟の中からバッテリーを取り出してこなくてはならない。
 ロボットは、「洞窟からバッテリーを取り出してくること」を指示された。
 
①人工知能ロボット1号機R1は、うまくプログラムされていたため、洞窟に入って無事にバッテリーを取り出すことができた。
 しかし、1号機はバッテリーの上に爆弾が載っていることには気づいていたが、
 バッテリーを運ぶと爆弾も一緒に運び出してしまうことに気づかなかったため、
 洞窟から出た後に爆弾が爆発してしまった。
 
 これは、1号機が、バッテリーを取り出すという目的については理解していたが、
 それによって「副次的に発生する事項」 (バッテリーを取り出すと爆弾も同時に運んでしまうこと)について

 

 

 理解していなかったのが原因である。
 
②そこで、目的を遂行するにあたって「副次的に発生する事項」も考慮する人工知能ロボット2号機R1-D1 を開発した。
 しかし、このロボットは、洞窟に入ってバッテリーの前に来たところで動作しなくなり
 そのまま時限爆弾が作動してロボットは吹っ飛んでしまった。
 
 2号機は、バッテリーの前で
 ・「このバッテリーを動かすと上にのった爆弾は爆発しないかどうか」
 ・「バッテリーを動かす前に爆弾を移動させないといけないか」
 ・「爆弾を動かそうとすると、天井が落ちてきたりしないか」
 ・「爆弾に近づくと壁の色が変わったりしないか」などなど、
 副次的に発生しうるあらゆる事項を考え始めてしまい、「無限に思考」し続けてしまったのである。
 
 これは、副次的に発生しうる事項というのが無限にあり、それら全てを考慮するには無限の計算時間を必要とするからである。
 ただ、副次的に発生する事項といっても、「壁の色がかわったりしないか」などというのは、通常、考慮する必要がない。
 
③そこで、目的を遂行するにあたって「無関係な事項は考慮しない」ように改良した人工知能ロボット3号機R2-D1を開発した。
 しかし、このロボットは、洞窟に入る前に動作しなくなった
 
 3号機は、洞窟に入る前に、目的と無関係な事項を全て洗い出そうとして、「無限に思考」し続けてしまったのである。
 これは、目的と無関係な事項というのも無限にあるため、それら全てを考慮するには無限の計算時間を必要とするからである。
 
 事程左様に、人間のように判断することができるロボットR2-D2を作るのは難しい。