手話を日本語翻訳するAI、コミュニケーションの溝を埋める(日経XTECH11/13)
https://tech.nikkeibp.co.jp/atcl/nxt/column/18/00001/01258/
札幌市に「SAPPORO AI LAB」というAIの推進組織がある。この組織の産学官連携プロジェクトが、手話のリアルタイム自動翻訳システムを開発した。手がけたのは北海道大学大学院情報科学研究科の山本雅人教授の研究室と日本ユニシス。札幌聴覚障害者協会と札幌手話通訳問題研究会が手話に関して支援した。
システムは、聴覚障害者が薬局を訪れた際に利用することを想定したもの。薬局の店員の言葉を音声認識し、その内容の手話の動画を聴覚障害者に見せる。この機能は日本ユニシスが開発した。
手話は、カメラで取得した映像を、AIを使って日本語の文章に変換し、店員に伝える。この部分を山本教授の研究室で開発した。
(サイトより引用)
--
手話話者のコミ上、必要な機能。何十年も前からの夢です。
ただ限定的な内容ならとは思いますが、聴覚障害者側の手話表現は多彩です。
同じ手話でも人によって向きが違っていたりします。正確に読み取れるでしょうか?というのが正直、疑問です。
ただ現状ではまだ膨大なデータ処理が必要なのは明白で、わかった上で大変な作業をされているのだと思います。本当に頭が下がります。