しばらく前に、脳から視覚情報を取り出す研究について、記事にしました。
■過去記事: 夢が見れたら
最近の脳科学の進歩には、目を見張るものがあります。
特に、情報科学との融合により、これまで想像もできなかったことが、次々と実現しています。
ということで、ついでにもう一つ。
今度は、「頭から動作命令を読み出し、ロボットを操作する」研究です。
視覚情報の実験より、さらに前、2006年に発表された研究成果です。
前と同じ 国際電気通信基礎技術研究所(ATR) と ホンダ・リサーチ・インスティチュート(HRI) が行った研究です。
○実験概要
被験者にじゃんけんの動作をさせ、MRI装置で脳活動に伴う血流の変化を一秒ごとに計測、その画像データから脳活動の運動指令に関与する部分だけを抽出してコンピュータで解析し、じゃんけんのどの動作をしているのかを解読する。その結果をロボットハンドに送り、被験者と同じ動作をさせる。
■関連ページ: ATRプレスリリース
ご覧のように、MRI に入った被験者がチョキを出すと、ロボットもチョキを出します。
実験では、実際にチョキを出して、脳から運動指令を読み取っています。
こうなると、きっと、考えただけでもチョキがだせるに違いありません。
実際に、ホンダでは、現在、考えるだけで ASIMO を動かす研究をしています。
■関連ページ: HRIニュース
当然、通信を介せば、遠隔から考えただけで、ロボットを操作できることになります。
視覚情報のような感覚と組み合わせれば、分身ロボットが実現しそうです。
まさに、アバター ですね。
実は、この一連の研究は、突き詰めれば、「心を読み取れるか」ということになると思います。
それはすなわち、「心とは何か」を解明することに他なりません。
こう書くと、なんだか危険なものを感じますね。
でも、その応用は無限です。
例えば、身体能力が落ちたお年寄りが、脳インターフェースを使ってサポートロボットを操作し、他人の介護を必要とせず、自分で生活できれば、これは素晴らしいことです。
もちろん、アバター兵士も考えられるわけです。
いつもそうですが、要は、科学技術は使い方次第ということですね。