ChatGPTなど話題のAI(生成人工知能)は、脳の神経回路の働きをモデルとする「深層学習(ディープラーニング)」と呼ぶ技術が基盤となっています。この技術の登場は案外古く、すでに20年近く経ちますが、驚くことにこの技術がなぜ優れているのかはわかっていないのです。
研究者が数学や統計学を駆使して謎解きに挑んでいるのですがなかなかの難問のようです。徐々に仕組みは解明されてきましたが、「完全な理解は難しい」と言われています。脳の神経回路がモデルですからさもありなんということなのでしょう。
もう少し細かくいうと、「深層学習」は脳の学習メカニズムをコンピューター上で再現した「ニューラルネットワーク」を発展させたものになります。人間の脳は多数の神経細胞が四方八方に突起を伸ばして複雑につながっています。
「ニューラルネットワーク」は神経細胞に相当するニューロンを多数つなげたものなのです。ニューロンは種類ごとに集まって層を作っており、ニューロン同士の結合の強さを変化させることで学習が進む仕組みだそうです。
深層学習はこの「ニューラルネットワーク」を多層構造にしたものです。何層にも深く重ねたため、深層(ディープ)の名がついたのです。文章や画像、音声の認識と生成、翻訳などに使われ、AI発展の原動力となっています。
ところが厄介なことに、ニューラルネットワークで培われた理論とは異なり、深層学習では層を増やした方が性能が高くなることがわかっています。研究が進む中で、深層学習は層ごとに学習する際に使う数式を変えられることがポイントとわかってきました。多層にすることで様々な計算方法を組み合わせられるため複雑な学習ができ、性能が高まるというわけです。
しかし、問題は残ります。
既知のデータに適合しすぎて未知のデータに対応できない「過学習」と呼ぶ現象です。要は、過去問は理解して完璧に答えられますが、新しい問題は解けないのです。
学習能力が高まるほど内部の仕組みも複雑化して解明が難しくなり、現状は山の中腹くらいだそうです。平たく言えば、「繋がり方は分かったが、どうしてこれで動いているのか分からない」状態なのです。
つまり、「深層学習」は未だ理論的なモデルができていないのです。したがって、何ができて、何ができないのかは正確にわかっていません。
ある専門家は、開発には「人文社会系の知識が欠かせない」と言います。何ができるか、ということに加えて、どう使うかの観点、とりわけ倫理面の観点が重要ということでしょう。
この問題に対して、マイケル・サンデル教授が意義深い問題提起をしています。
「仮定の話だが、それほど空想ではなくなっている話をしよう。ある企業がオンラインのメッセージやツイート、投稿への『いいね』、写真などあらゆる個人情報を集め、ある人のアバターを作れるとする。その人の死後、過去だけでなく未来の出来事についてもアバターと会話ができる。愛する祖父母が亡くなったとして、あなたはそのサービスを利用するだろうか」
「別の例を挙げよう。つい最近、ポール・マッカートニー氏がAIを使って古いデモテープからジョン・レノン氏の声を抽出し、ビートルズの新曲を完成させた。AIが発達すれば、彼らが作曲してさえいない『ビートルズの新曲』を彼らの声やスタイルでつくることができるだろう。本物と見分けがつかないとしたら、あなたはどう感じるだろうか」
「実際の友人や祖父母とそのアバターの違いがわからなくなるとすれば、私には人間の真正性(本物であること)が失われるように思える。これは人間性の根幹にかかわる問題だ。だが私たちはこの区別を失うかもしれない。AIが突きつけるこの問いは、平等や民主主義といった価値観をめぐる議論よりも重要なテーマだ」
AIが突きつけるこの問いにあなたはどう答えますか。