先日、めったに真面目に受講しないFDのテーマがChatGPTで、大変に面白かった。

 とはいえ、「電脳」関連に弱い私には、話の大半が呪文にしか聞こえなかったので理解度は疑問。

 

 

 現時点で思ったこと。

 

 出力される文章の完成度は高い。

 例示されたのは、講師の方が所属する大学紹介で、簡にして要を得た文章だった。

 しかし、その大学に無い学部が、あることになっていた。

 その大学のことを知っている人は一発で分かる間違いだが、知らないと自分で調べ直さないと分からない。

 

 嘘や間違いでもっともタチが悪いのが、8~9割は本当で1~2割嘘や間違いの時。

 大量のデータを学習しているため、時折誤った情報や偏見を含む回答を生成する可能性があるChat GPTは、まさにそういう回答を出す。

 結構深刻だと思うが、業界ごとのモジュールを作れば改良されるのだろう。

 

 

 ChatGPTが本格導入されれば大半の事務仕事はなくなりそうだ。

 ただ、当分、生成AIが出力した文章のチェックをする必要があると思う。

 そうなると、マニアックな知識をもっているか、ネット以外の方法で素早く事実を確認できる人材が必要になるのではないだろうか。

 ChatGPTはネット内の情報で事前学習しているので、ネットに無い情報や、ネット内にあるが他情報と結びつきやすい情報で間違えるからだ。

 

 「芥川龍之介の『藪の中』の感想文を書いてください」や「ラヴクラフトの『狂気の山脈にて』の感想文を書いてください」は数秒で出力された。

 しかし、「先日読んだ、M.R.ジェイムズの『十三号室』の感想文を書いてください」と入力すると「残念ながら、『十三号室』("Number 13")はM.R.ジェイムズの代表的な作品の一つではなく、私のトレーニングデータにも詳細な情報がありません」と出てきた。

 そういうものなのである。

(とはいえ、「ただし、ジェイムズの作品全般に共通する特徴は、緊張感や不気味さを巧みに描写し、古風な文体と緻密な筆致が特徴的であることです」と追記された。凄い。有料の4.0だと書いてくれるかもしれない。「先日読んだ」と入力したのは「読んだのなら、あなたが書いたらどうでしょう」と出力するかなと思ったのだが、ChatGPTは私のような嫌味な回答をしないようだ・・・というのはもちろん嫌味な冗談だが)

 

 

 ところで、学生が判で押したように同じ内容のレポートを出してくることは、この10年で急増した。

 学部生レベルなら、Googleか何かで検索してコピペしたなというのは、ある程度わかる。

 

 当初は腹を立てていたが、今は「時代の流れなのだな」と思うようにしている。

 ただ、コピペのように知識を右から左へ流すだけの作業で、学生たちの心に何が残るのだろうと思うと、些か虚しい。

 知識が残ったかでない。そんなものは”検索”すれば出てくる。

 知識を通じて「何を感じて」「どう考えたか」という意味である。

 

 

 ということで、学生さんたちに言いたいのは、些細なことはまだしも、大事なことをネットで調べる習慣があるようならさっさとやめて、ネット以外の複数の方法で調べることを身に着けるか、ネットで調べても出てこないことを勉強して自分の頭で考えるようにしないと、これから仕事をしていく上で大変かもよということである。

 ChatGPTと”同じこと”をしても敵わないのだから。

 

 

 とはいえ、電脳関係に疎い老害おじさんの誤解を含んでいるであろう感想なので、眉唾で。

 

 ところでこの文章、ChatGPTに書かせたものを混ぜたのだけど、どこでしょう?

 一応、分かるように書きわけました。