この情報は、iPhone Maniaさんのブログで知りました。
米イリノイ大学とAppleは、Google、Meta、その他のハイテク企業と協力して、「スピーチ・アクセシビリティ・プロジェクト(Speech Accessibility Project)」というプロジェクトを立ち上げました。
このプロジェクトの目的は、人工知能(AI)のアルゴリズムでは考慮されないことが多いALSやダウン症など、発話に影響を及ぼす疾患を持つユーザーのために、音声認識を研究、改善することです。
イリノイ大学は、Amazon、Apple、Google、Meta、Microsoftと共同で、このプロジェクトを進めているとのことです。
また、ALS患者の支援を行う非営利団体のTeam Gleason、パーキンソン病患者のためのDavis Phinney Foundationも、このプロジェクトを支援しています。
アメリカ国立衛生研究所によると、音声に影響を与える疾患を抱える人の数は米国内だけでも数千万人に達しているとのことです。
Appleや他のテック企業は、この10年間で、Siri、Amazon Alexa、Googleアシスタントなどのツールによって、音声アシスタントの分野を革新してきました。
Appleについては、VoiceOverや音声コントロールなど、弱視や動きが不自由なユーザーのために最高水準の技術に投資しています。
情報元:Engadget,Speech Accessibility Project via 9to5Mac
写真元:Apple
またね。

