手話と音声による双方向コミュニケーションシステム(SureTalk)のデモンストレーションを見せて頂きました。これは国立大学法人電気通信大学とソフトバンク株式会社の共同開発によるシステムで、自治体への試験提供などを行いながらコンソーシアム立ち上げに向け準備されているものです。報道を見て、ぜひ一度体験させて頂ければと思っていました。

聴覚障害者が健聴者と共に会議に出席する場面で発言のタイミングを掴みにくい、災害時に聴覚障害者が必要な情報を得るのが難しい、手話通訳士の人数が限られており窓口などで手話で会話ができるソフトの開発が求められている、といった背景から手話とテキストによるコミュニケーションツールの開発が進められてきました。

手話の特徴を抽出して、手話を認識、テキストへと変換させるもので、AIが手話を学習することによって精度が上がっていきます。私も実際に体験させて頂きましたが、膝の上に手を置くことを手話のスタートと終了の合図として、画像認識が始まります。手話の動きから表現が似ているが異なる単語が抽出されてしまった場面もありましたが「病院の予約をお願いします」という手話をやってみたところ、正確にテキスト化されました。具体的には「病院」「予約」「お願いします」という3つの手話を行ったのですが、助詞を補ってテキストにしてくれます。実証に参加するユーザーが増えていくことで更に精度が向上し、使われる場面も増えてくるのではないか、と感じました。デジタル庁にはアクセシビリティを担当するチームもありますので、今後もテクノロジーやツールを活用した課題解決に向き合っていきたいと思っています。

動画もぜひご覧ください。