生成AIのベンチマークに対する信憑性に疑問符がつき始めている。かつてOpenAIで数々のブレークスルーを牽引したイリヤ・サツケヴァー(Ilya Sutskever)氏の離脱も、現在の開発体制に対する一つの示唆かもしれない。
現在の「スケーリング一辺倒」かつ「力づく」の開発競争は、早晩限界に達するのは明白だ。過大な電力消費、巨大化しすぎるデータセンター、天文学的な資本投下。これらはもはや異常な領域に足を踏み入れている。私は、汎用人工知能(AGI)の真の実現には、現在のシリコンベースのアーキテクチャではなく、量子コンピューターの本格稼働が不可欠だと確信している。
イリヤが「Safe Superintelligence (SSI)」を始めたのは「現在の力づくのアプローチへの限界を感じたからではないか」。彼は単なる計算資源の拡大ではない別の道、アルゴリズムの根本的な転換、を模索している可能性がある。
なお、量子認知アルゴリズムという知能の数理モデルを光量子コンピューターというハードウェアで実装することに極めて近い、あるいはその橋渡しをしているグループは下記のとおり。
1. 東京大学・理化学研究所:古澤明 教授のグループ
2. カナダ Xanadu(ザナドゥ)社:Maria Schuld 博士
3. Quantinuum(クアンティニュアム)× 小澤正直 教授
4. 量子科学技術研究開発機構 (QST):山田真希子 氏のグループ