この情報は、Apple Products Fanさんのブログで知りました。
情報元は、BGRに掲載されていた記事からだそうです。
iPhoneやiPadの音声アシスタント「Siri」を開発したのはAppleではなく、SRI Internationalの研究者達だそうです。
米国でも最も大きな研究機関で、Appleが買収したSiri Inc.は、SRIからスピンアウトした会社だそうです。
このSRI Internationalが、「次世代のアシスタント技術」として現在取組んでいるのは「Brite」というプロジェックトだそうです。
「Siri」は、質問したことに応える技術ですが、「Brite」は質問する前からアシスタントする内容を察知して案内する技術だそうです。
「なんだそれってGoogle Nowじゃん」と思った方が多いと思います。
しかし、「Brite」は、Google Nowとは次元の違うアシスタント技術だとういことです。
位置情報や過去の膨大な検索履歴などの情報を使って予測するようなレベルではないということだということらしいです。
「Brite」は、まさにあなたが行おうとしていることを知ることができるそうです。
(予知するアシスタント技術なの???)
それは、あなた自身が行うことだけでなく、一緒に仕事をしている人達がやろうとしていることも含まれているそうです。
このシステムは、3つのカメラが画面を見る人の視線や指や手の動きを監視しており、今見ているもの、行っていることの重要性を見極めることができるそうです。
SRIの研究者達にとって道のりはまだ先が長いですが、今現在は重要なことかどうか予測を試みるための「認識インデックス」というものにフォーカスして研究しているそうです。
将来、「Siri」と同様に、iPhoneに搭載されるのかどうかわかりませんが、何か作業をしている時に、適宜アドバイスをしてくれる技術というのは、世の中やまわり生活を一変させるかもしれませんね。
でも、このシステムの中の「見る人の視線」や「指や手の動き」を監視することだけで、その人が将来何を考えているかどうかを予知することは困難だと感じます。
もう一つ、重要な要素がこの技術には欠けていると思いました。
それは、その人の感性認識のリアルタイムな情報が含まれていないというところです!
その人の心の内が察知できないと、次に何をやろうと考えていることは見かけの動作だけでは決められないと思うからです!!!
多分、この技術は、実用化には程遠いものだと思います。
またね。

