ChatGPTの有料版のPlusや企業向けのエンタープライズ版では、あと数週間で、マルチモーダル機能が使えるようになります。
AIが聞く見る話すの機能が使えるようになることで、目の不自由な人もChatGPT Plusを活用できるようになります。
下記の動画も、ぜひ、参考にして下さい。
【速報!今期最大アプデ🔥】ついにChatGPTが見る・聞く・話す!マルチモーダルモデルが実装されます https://t.co/wlxxJVqvqQ @YouTubeより
— エンジニアM168 (@masaru21) September 28, 2023
スマホのChatGPTのアプリで、サブスクリプションを利用していると、この聞く見る話すの機能を使えます。
あと2週間くらいしたら、一般に公開されるようです。
今は、まだ、一部の人しか使えないです。
スマホのChatGPTのアプリに向かって話しかけて、回答をもらえるようになったら、街を探検するのも楽しいかもしれしないですね。
特に視覚に障害をお持ちの方は、ChatGPTにスマホで撮影した写真を取り込み、その画像について質問することで、写真に対する理解を深めることも可能と思います。
質問の回答を音声で伝えてくれるのは、とても助かると思います。
ChatGPT-4Vという学習モデル、マルチモーダルに対応した学習モデルが誕生したことで、この機能が実現しました。
マルチモーダルは、画像、テキスト、音声など複数の情報を処理して回答できる機能のことです。
こちらが、ChatGPTの公式サイトです。
今回のGPT-4Vについて書かれた公式ブログ
ChatGPT Plusは、ブラウジング機能が復活しています。