表題は、本日の日経の記事のタイトルです。
アメリカの オープンAI という新興企業が開発した言語AI「GPT-3」が人間並みに自然な文章を生成するそうな。
「GPT-3」が書いたことを明かさずに投稿されたブログ記事がランキングの首位を獲得する現象も起きた、らしい。
↓がそのブログ記事
巨大な能力を支えるのは人間の脳を模した巨大なシステム。
学習精度を高めるために不可欠なアルゴリズムの変数、脳でいえば神経同士のつながりの強さともいえる「パラメーター」の数は1750個。
事前の学習量として、数千億語分。
人間が一生かかっても読み切れないほどの文書が「GPT-3」には刻み込まれている、と。
そして、「文章の要約」「分析」「情報の抽出」などはできる、のだそう。
・・・と、言うことは、(脳でいえば神経同士のつながりの強さともいえる「パラメーター」の数は1750個の)とっても頭のいい人が、一生かかっても読み切れないほどの文書(たしかどこかの小説家は本を4000冊・・・だったかな、を読めば小説家になれるって言ってました)を頭に叩き込んでいるのだから、並みの人間には勝ち目はないってことになりますね。
こんなすごいAI言語が出てきても、人間には及ばないってことがたくさん指摘されるのでしょう。
でも、そこそこのホワイトカラーの仕事は「GPT-3」さんがやってくれる日も近そうな気がしますね。
この頃のAIの進化は個人的にも感慨深いのです。
何故ならわたくし、大学を出てはじめての職場はAIの研究開発の場で、当時、機械翻訳、イメージ処理、音声認識、知識ベース(・・・だったかな)の分野に分かれていろいろなプロトタイプを作っていました。
言語はC言語でOSはUNIX。
上級者は当時高価だったSymbolics とかいうコンピューターで処理されるLISPという言語を使って何かやってました。
下っ端はよくわかってなかったけれど・・・
こういうマシンは冷蔵庫みたいに寒いマシンルームに置いてあって、冷え性には堪えた・・・
巨大なフロッピーディスクとか、旧石器時代のような光景。
当時使っていたのは↓の写真の一番左(8インチ)。
(Wikipediaより)
当時のAIにとって、まだまだ未来は霧の中。
なんだか、今日のAIの進化を目の当たりにすると拙いブログ書いてるのがアホらしくなってきます。