チャットGPTがクローズアップされ、このところ連日のように新聞、テレビでも取り上げられています。東大副学長で分子生物学者の太田先生は『人類はこの数ヶ月でもうすでにルビコン川を渡ってしまったのかもしれない』とまで言っています。ただし、忘れずに以下のコメントをしています。

チャットGPTを使いこなすには、相当の専門的な知識が必要であり、回答を批判的に確認し、適宜修正して理解することが求められる!この部分が重要です。レポート提出時期が迫った学生が安易に使うことが考えられるし、卒論に利用する懸念が見え隠れしますが、チャットGPTが出してきたものが正しいのか否かについて検証するだけの知識を持ったうえで、参考までに聞いてみるという使い方が正しいと思います。もっとも、友人の大学教授の話によれば、それまでもインターネットから集めてきた知識を机上で整理して使ったら、そっくりそのままコピーして貼り付けてきた学生がいたとのこと。どうしてそれが分かるのかを聞いたところ、学生の実力を把握しているので『この学生が、急にこの質のレポートを書けるようになるはずがない!』と思い、調べるとヒットするものがあり、学生に確認すると流用を認めたそうです。もちろん単位はとれませんが、このように学生を把握できている先生ばかりではなく、中身を問わずレポートを出すということだけで単位をあげる教育者とはいえない先生が少なからずいると思います。こういう先生が指導教官ならチャットGPTは悪い意味で力を発揮することでしょう。上智、東大では・・・

さて、そのチャットGPTですが、このブログでも既に何回か取り上げてきました。紹介される事例を見ると、確かに今までの対話型AIシステムとは一線を画す出来栄えで、上述の太田先生が『ルビコン川を渡ったかもしれない』と評価するのもうなずけます。どうしてそこまでできるようになったのか?答えは簡単で、今迄とは7桁くらい違う1750億件もの教師データを与えたからです。但し、米国を中心とした教師データで、日本国内の教師データは少ないために回答に間違いがあることも分かっています。例えば、ある番組でアナウンサが自分の名前を入力して『この人、どんな人でしょう』と質問したら、『コメディアン』と返事が返ってきたそうです。太田先生のチャットGPTが出してきた答えが正しいのか否か』について検証するだけの知識が必要という指摘がよく分かります。しかし、少ない日本の場合でも、医師の国家試験を解かせたら55%の正答率というのだから驚きます。主に教師データを集めた米国内で使ったら・・・ルビコン川を渡ったという表現が理解できるかもしれません。

 

東ロボプロジェクトを率いたこの方面の日本のリーダ的存在である国立情報研究所の新井紀子先生曰く『データ量を数千倍に増やすと、突然精度が上がり、今までの蓄積では説明がつきにくい現象が起きている』とのこと。チャットGPTは、今までとはけた違いの1750億件もの教師データを入れ込んだものなので、なるほどと思います。しかし、自ら新しい知識を得て自ら学習して知恵の拡大再生産をすることができないうちは、人間を超えることはない・・・と思います。しかし、不勉強な人間なら軽く超えてしまいそうです。そもそも、普通の人が1750億件もの教師データを理解しているはずがないので、その時点で負けです。TBSの安住アナウンサが『チャットGPTに「私の仕事、来年には取られるかもしれない』と言っていたそうです。彼が実験したのは、キャスタをしている番組で、番組冒頭にどのような話をすれば良いのかを聞いたものだそうですが、瞬時に十分使える内容を答えてきて驚いたと明かしました。

 

AIが人間を支配するシンギュラリティは起きないものの、今迄AIにはとって代われないだろうと言われてきた職業が少しずつAIに浸食されてきたのかもしれません。太田先生の仰る通り、AIの出してきた答えを評価できるだけの専門的な知識を身に付けなければならないでしょう。

 

※質問はosugisama@gmail.comにどうぞ!

※リブログを除き、本ブログの無断転載、流用を禁じます。