結論から言うと、可能。

ただし、可能になるまで時間がかかるだろう。


何故なら、大きく分けて2つの壁があると思うからだ。

  1. ハード面(コントローラー)

  2. ソフト面(プログラムと視覚的なもの)


ハード面とは、現時点で一般的に普及されているコントローラー(例としては、OculusもしくはQuest2)が対応していないからだ。


手話や指文字を見たことがある方は、イメージできると思われますが、両手各指使います。


対応させるならば、各指にはめるタイプかグローブタイプだろう。他はカメラからのセンサーで手の形を読み取って、そのまま反映するとか。

あと、手話には表情も必要です。これもセンサーで読み取る技術になるでしょう。



ソフト面の方は現時点、メタバースの世界ではまだ自由に指を思い通りに動かせていないようです。


仮に出来るようになったとしても、相手側に手話が読み取れるように表示速度だったり、相手側に最適な角度になるようなプログラムが必要かもしれません。

そして、カラーも大事になってきます。
TVニュースで見かける手話通訳者の服装を思い浮かべてください。手がよく見えるように暗い色だったり、模様の無い服を着ています。


あと、立体感も必要でしょう。同じカラーだとのっぺりして見辛くなります。シャドウやグラデーションを付けて、各指の位置感覚がわかるようにする等の様々な工夫をこらさないといけないので時間はかかると思います。


最後に、これらの技術は早いうちに出来るのではないかと思います。手話のためでなく、自分の手指で何かをしたいという欲求が必ず出てくるはずです。


例えば、『つかんでいる』という感覚だったり、よりリアルを突き詰めようとする人が出てきても不思議ではありません。

その日が早く来ることを楽しみにしています。



 P.S.
言語翻訳機能に手話が付いてくれたら、凄いと思うけれど、会話のテンポがずれそうな気がする。
そのズレをどう埋めるか?が課題だろう。


※noteにて投稿済。