ChatGPTの聞く見る話すの機能搭載で、視覚に障害がある方も世界が広がると思う | AIを使って生産性向上を目指すクリエイターM

AIを使って生産性向上を目指すクリエイターM

ツインレイと出会い人生V字回復を目指しています。
ココナラを通じてWordPressの復旧作業を多数請負った実績ありIT系の仕事をしたいという夢を叶えています。
法人化できるように活動しています。

ChatGPTの有料版のPlusや企業向けのエンタープライズ版では、あと数週間で、マルチモーダル機能が使えるようになります。

AIが聞く見る話すの機能が使えるようになることで、目の不自由な人もChatGPT Plusを活用できるようになります。

 

下記の動画も、ぜひ、参考にして下さい。

 

 

スマホのChatGPTのアプリで、サブスクリプションを利用していると、この聞く見る話すの機能を使えます。

あと2週間くらいしたら、一般に公開されるようです。

今は、まだ、一部の人しか使えないです。

 

スマホのChatGPTのアプリに向かって話しかけて、回答をもらえるようになったら、街を探検するのも楽しいかもしれしないですね。

特に視覚に障害をお持ちの方は、ChatGPTにスマホで撮影した写真を取り込み、その画像について質問することで、写真に対する理解を深めることも可能と思います。

 

質問の回答を音声で伝えてくれるのは、とても助かると思います。

 

ChatGPT-4Vという学習モデル、マルチモーダルに対応した学習モデルが誕生したことで、この機能が実現しました。

マルチモーダルは、画像、テキスト、音声など複数の情報を処理して回答できる機能のことです。

 

 

こちらが、ChatGPTの公式サイトです。

 

 

今回のGPT-4Vについて書かれた公式ブログ

 

 

ChatGPT Plusは、ブラウジング機能が復活しています。