2024年6月19日発行

「花の墨通信」14巻6号・号外 

       (回答)花 墨 汎 潤

ー 相談室「パンセ・ソバージュ」

    第89回      

近代科学無宗教か」 

        その(5-1)

 

Q22 科学は<事実>に立脚し、事実のもつ<自然法則>によっていますよね。シャルダンのいう神学は<妄想性>を排除して<科学的な真理を求める>という点で、今までの神学と違って<未来神学>という感じがします。違いますか?

A22 ええ、確かに言えます。だからこそジャーナリスト(評論家)の立花隆がほれ込み、<シャルダンはアインシュタインとならぶような20世紀を代表する知的巨人だった」と評価するわけですね。

Q23 いまシャルダンのいう超進化は実際現に<ITの現場>で進んでいるかに見えます。例えば<大規模言語の生成AIの登場>がそれに当たりませんか、いかがですか?

A23 いや、その通りでしょう。専門家もすでにそう<超進化>に近いことを言っていますよ。その一例を紹介しましょう。トロント大学のジェフリー・ヒントン名誉教授はAI(人工知能)の<ディープ・ラーニング(深層学習)>のもとを築いたAI研究のゴッドファーザー>と言われます。「1985年に大規模言語モデルを自分が作った」と述べていますね。この人にインタビューした記事です。

【――なぜAIが人類を脅かす可能性があると思うのか。

「多くの人が、AIの暴走を防ぐにはスイッチを切ればいいだけではないかと主張する。だが、人知を超えたAIは言葉によって我々を操る。スイッチを切るべきではないと説得しようとするであろう。」

――国連は高度なAIの軍事転用について規制を見据えた緊急の対応を決議した。

「今後10年以内に自律的に人間を殺すロボット兵器が登場するとみている。」「私たちは誰もAIに支配される未来を望んでいない。その事実が、各国がAI兵器の規制に向けて足並みをそろえる土台になる。核戦争と同じだ。」

――以前は「AIが言葉を理解しているように振る舞ってみえたとしても、実際には理解していない」と(あなたは)主張していたはずでは。

「私はAIがジョークを理解できるかを判断の基準にしてきた。グーグルが開発した大規模言語モデル『PALM(パーム)』を使ったチャットボット(自動応答システム)に、22年にいくつかのジョークを説明してくれと頼んだ。チャットボットはジョークがなぜ面白いかを理解し、全て説明することができた。」「現在の対話型AIは人間の脳の100分の1機能でも数千倍の知識がある。おそらく大規模言語モデルは脳よりも効率的に学習できる。」

 ――AIは知性だけでなく、感覚まで持つようになるのだろうか。

「主観的な経験という観点から説明すると、AIは人間と同じような感覚を持てると考えている。」

――チューリング賞を共同で受賞した米ニューヨーク大学のヤン・ルカン教授は、AIに意識や感覚が宿る可能性を否定している。「彼は今も友人だが、意見は異なる。おそらく彼は、AIには主観がないと思っているのだろう。                         (5-2へ続く)