聴力は正常ですが、耳で聞いた情報を脳が理解できる形に加工するのが苦手です。読字に問題はないので、聞きながら脳内で文字に変換すれば認知しやすくなるのではないか、と講演ビデオで練習してみました。
 
 目を閉じ顔を伏せ、音声に神経を集中します。脳内スクリーンに音声を文字化して映し、映像に変えていきます。おお、結構うまくいきます。
 持続して集中するのは難しいので時々目を開けて休みます。机の上の面を見ているだけなら、その上に文字を映し出せるのでそれほど集中力がそがれませんが、映像を見るとそれが脳内スクリーンに映ってしまい、文字が映せません。
 
 いずれにせよ長時間は無理ですが、もしかすると訓練次第かも知れません。しかしどう見ても居眠りしているようにしか見えません。他の人がそうしているのを私が見たとしても、きっと居眠りだと思います。人前では全く使えません。

 人は何かをじっくり考える時、視覚情報を排除しようと天井や机上をながめたりするんだそうです。なのになぜ「見ている」ことが「聞いている」証拠として採用されるようになったのでしょう。それとも見ることにより音声への集中力が増すという作用はあるのでしょうか。

 

 

 10月24日の記事。人が人の顔を見ながら話すのは、非言語情報を得るためなんだそうです。非言語情報を得ようと全然していない自分。音を聞き取ろうとすると同時に顔から情報を引き出すなど、そんな1度にできません。

 自分もそうしているというASの方からコメントいただいたので、合理性はあるのだと思います。人前では使えませんが。