知能の高さ | パート主婦の生き方

パート主婦の生き方

浮かんでは消えて行く思索の記録

知能の高さは、どれだけ多くの”存在”を知っているか、ということと同義である。言い換えると、どれだけ多くの”文脈”を持っているかとも言える。

 

適切な表現が思い浮かばないが”文脈”という言葉が一番しっくりくる。ここで言う”文脈は文章や言葉のみに使われるものではなく、ネットワーク、コネクション、繋がり、脈、可能性、角度や視点、スキーマと言ったところだろうか。1つの”存在”の周りに繋がっているものである。

 

文脈の重要な要素は”関係性”である。

 

存在>(関係性=文脈)

 

そして関係性には”相対的位置”がある。

この位置関係認識能力、もしくは空間認識能力は知能の重要な要素であると言える。人間に特有の脳の部位(下頭頂小葉)は空間内での移動回転等のイメージ操作に関わるとされている。

 

その操作は言葉では言い表せない、視覚的イメージを持つとは限らない感覚的なものだ。言葉に不足しがちなもの、それは”どれくらい”の程度や”どの辺り”の分野や位置関係である。私たちは普段抽象化された言葉の文脈において経験から勝手に想定している。

 

一つの現象をどのアングルからも見た上で理解する。

わかりやすい例を言えば、チェスや将棋などのボードゲームだ。

プレイヤーはあらゆる可能性を考慮した上で次の一手を決めるが、どれだけ多くのシナリオを描けるかが勝負の分かれ目だ。

 

神経細胞で考えると、1つの脳神経細胞がどれだけ他の脳神経細胞と繋がっているか、という事になるかもしれない。

ただそのような多くのコネクションを持った場合の負荷はエネルギー効率的によくないと考えられ、人間の脳のシナプス数(コネクションの数)はあえて刈り込まれて抑えられているようだ。ありとあらゆる可能性を考えていてはキリがないからだ。ありとあらゆる可能性を思って思索を巡らせていては「心ここにあらず」な状態になる。

 

脳の一部を損傷した場合、その部分を補う形で、脳の一部のネットワークが密になり、類い稀な才能を出す場合もあるようだ。

 

「深層学習では、多層(深い)構造を持つディーブニューラルネットワークが使われ、大量のデータで訓練することで複雑な特徴を学習し、高度なタスクに適用されます。」(ChatGPT)

 

人工知能で考えると、画像認識や自然言語処理、音声認識などディーブラーニングの深層学習モデルは高いエネルギーを消費し、出力(タスクを終える)までの所要時間も増える傾向にある。ありとあらゆる可能性を膨大なデータから抽出する事はできるだろうが、ベストな解を選ぶことは人間の認知(生きるための主観)に依存する。

 

膨大な要因による複雑な相互作用、つまり事実を知る事にエネルギーを費やすことは効率が悪いので、私たちは単純化して理解しているだけなのだ。

 

知能が高いということは、どれだけ多くの存在を知っているかということで、多くを知っているほど、事実や真実に近づける傾向があることは否めない。ただ、生きる要領が良いということは、”生きるだけに必要な的確な情報を有している”(認知力が高い)ということで知能が高いということとは別の次元なのである。