AI 2027
 

今後10年間で超⼈的なAIがもたらす影響は甚大で、産業革命の規模を凌駕すると予測しています。
OpenAI、Google DeepMind、AnthropicのCEOは皆、AGIが今後5年以内に到来すると予測しています。
サム•アルトマン氏は、OpenAIは「真の意味での超知能」と「輝かしい未来」を目指していると述べています。

 

これを単なる誇大宣伝だと片付けてしまいたくなるかもしれません。しかし、それは大きな間違いです。これは単なる誇大宣伝ではありません。私たち⾃⾝はAIを誇大宣伝するつもりはありませんが、それでも、10年後には超知能が到来する可能性は十分にあり得ると考えています。

 

もし私たちが超知能の瀬戸際にいるのなら、社会はまだその準備ができていない。
超知能の発展における現実的な道筋を明確に⽰そうとした⼈はほとんどいません。私たちはそのギャップを埋めるために「AI 2027」を執筆し、切望されていた具体的な詳細を提供しました。このような研究が、特に私たちと意⾒が異なる⼈々によって、世界中でもっと多く⾏われることを願っています。この研究を通して、私たちがどこへ向かっているのか、そしてどのように前向きな未来へと向かっていくのかについて、幅広い議論が生まれることを願っています。

 

このシナリオは、「この後どうなるのだろう?」と⾃問⾃答を繰り返しながら書き進めました。まず現在から始め、最初の期間(2025年半ばまで)を書き、次に次の期間を書き、エンディングに至りました。特定のエンディングを目指していたわけではありません。その後、何度も脚本を破棄し、やり直しを繰り返し、納得のいくシナリオを完成させました。最初のエンディング、つまりレースエンディングを完成させた後、ほぼ同じ前提から、より希望に満ちた結末も描きたかったため、新たな分岐を書き上げました。

 

全てにおいて正しい予測ができるわけではありません。推測に頼る部分も少なくありません。しかし、このプロジェクトを通して、膨大な量の背景調査、専門家へのインタビュー、そしてトレンドの推定を⾏い、可能な限り正確な予測を⽴てることができました。さらに、私たちのチームは予測、特にAI分野において優れた実績を誇ります。筆頭著者のダニエル•ココタジロは4年前に「2026年の展望」という類似のシナリオを執筆しており、これは驚くほど時を経ても⾊褪せることなく読み継がれています。また、イーライ•リフランドはトップクラスの競争⼒のある予測家です。


全てにおいて正しい予測ができるわけではありません。推測に頼る部分も少なくありません。しかし、このプロジェクトを通して、膨大な量の背景調査、専門家へのインタビュー、そしてトレンドの推定を⾏い、可能な限り正確な予測を⽴てることができました。さらに、私たちのチームは予測、特にAI分野において優れた実績を誇ります。筆頭著者のダニエル•ココタジロは4年前に「2026年の展望」という類似のシナリオを執筆しており、これは驚くほど時を経ても⾊褪せることなく読み継がれています。また、イーライ•リフランドはトップクラスの競争⼒のある予測家です。

 

各章の冒頭、右端の余白に⼩さな図表が掲載されています。これは、シナリオの該当箇所が展開される時点における世界の状況を概観するためのものです。これらの数字の意味や、私たちの⽅法論に関するより詳しい説明については、https://ai-2027.com/をご覧ください。

 

 

2025年半ば: 障害となる要因

 

世界が初めて AI エージェントを目にすることになります。

 

コンピューターを使うエージェントの広告では、「パーソナルアシスタント」という⾔葉が強調されています。
「DoorDashでブリトーを注文して」や「予算のスプレッドシートを開いて今月の⽀出を計算して」といったタスクを指⽰できます。エージェントは必要に応じて連絡を取り、例えば購入の確認をします。オペレーターのような従来のものよりも進化していますが、広く普及させるのに苦労しています

 

⼀⽅、世間の注目からは外れて、より専門的なコーディングやリサーチを⾏うエージェントが、その職業に変革を
起こし始めています。

 

2024年のAIは具体的な指⽰に従うことができ、箇条書きをメールに変換したり、簡単なリクエストを動作するコードに変換したりできるようになります。2025年には、AIは従業員のような機能を果たすようになります。コーディングAIは単なるアシスタントではなく、⾃律的なエージェントへと進化し、SlackやTeams経由で指⽰を受け取り、⾃ら大幅なコード変更を⾏い、時には数時間、あるいは数日もの時間を節約するようになります。

 

エージェントは理論上(そして厳選された例においては)素晴らしい成果を上げていますが、実際には信頼性に欠けます。AI関連のツイッターには、タスクがとんでもなく滑稽な形で失敗に終わったという話が溢れています。また、優れたエージェントは⾼価で、価格に⾒合ったサービスしか提供されず、最⾼のパフォーマンスを発揮するには月額数百ドルの費⽤がかかります。それでも、多くの企業がAIエージェントを⾃社のワークフローに組み込む⽅法を⾒出しています。

 

2025年後半:世界で最も⾼価なAI

 

OpenBrainは、世界最大級のデータセンターを構築しています。
(特定の既存企業を差別化するため、架空の汎用人工知能企業を例に挙げ、OpenBrainと名付けます。他の企業はOpenBrainより3~9か月遅れていると想定しています。)

 

GPT-4の学習には2⋅10^25 FLOPの計算が必要でした。
OpenBrainの最新の公開モデルであるAgent-0は、10^27 FLOPで学習されました。新しいデータセンターが稼働すれば、10^28 FLOPのモデルを学習できるようになります。これはGPT-4の1000倍に相当します。


他の企業も、GPT-4に追いつこうと、自社の巨大データセンターに資金を投入しています。
モデルは幅広いスキルを向上させていますが、特に注目すべき点が1つあります。
OpenBrainは、AI研究を加速できるAIに重点を置いています。彼らは、中国(その主要企業を「DeepCent」と呼ぶ))と⽶国の競合企業との二重の軍拡競争に勝ちたいと考えています。

 

研究開発(R&D)サイクルの⾃動化が進むほど、そのスピードは速まります。そのため、オープンブレインが社内開発中の新モデル「Agent‑1」のトレーニングを完了すると、多くの点で優れた性能を発揮しますが、特にAI研究の⽀援に大きく貢献します。この時点で「トレーニングを完了する」というのは少々誤解を招く表現です。モデルは頻繁に更新され、追加データでトレーニングされたり、弱点を補うために部分的に再トレーニングされたりします。

 

現代のAIシステムは巨大な⼈工ニューラルネットワークです。訓練初期段階では、AIは「目標」というよりは「反射神経」を持ちす。「初めまして」と書いてあれば、すぐに「あなた」と答えます。インターネット上のテキスト出⼒約1つ分を予測できるまで訓練されると、膨にロール 大な知識をコード化し、任意の著者として柔軟プレイングできる⾼度な内部回路が発達します。これが、超⼈的なテキスト予測を可能にするのです。精度インターネット上のテキストを予測するように訓練された後、モデルは指⽰に応じてテキストを生成するように訓練されます。これにより、基本的な性格と「駆動⼒」が組み込まれます。

 

例えば、タスクを明確に理解しているエージェントは、そのタスクを成功裏に完了する可能性が⾼くなります。モデルはトレーニグの過程で、タスクを明確に理解するための「動機」を「学習」します。このカテゴリーに含まれる他の動機としては、有効、知識、⾃⼰提⽰(つまり、結果を可能な限り好意的に表現する傾向)などが挙げられます

 

OpenBrainにはモデル仕様がある(または「スペック」)、つまりモデルの⾏動を導く目標、ルール、原則などを説明した文書です。エージェント 1 のスペックは、いくつかの漠然とした目標(「ユーザーを⽀援する」や「法律を破らない」など)と、より具体的なすべきこととすべきでないことの⻑いリスト(「この特定の単語を⾔わない」、「これがこの特定のモデル状況の処理⽅法です」)を組み合わせています。AI を使⽤して他の AIをトレーニングする⼿法を使⽤して、スペックを記憶し、その格率について注意深く推論することを学習しまニングが終了するまでには、AI は 役⽴つ(指⽰に従う)、無害(詐欺、爆弾製造、その他の危険 す。このトレーな活動への協⼒を拒否する)、正直(引⽤を幻覚したりタスク完了を偽装したりして騙されやすい⼈間からより良い評価を得ようとする誘惑に抵抗する)になることが期待されます。

 

OpenBrainのアラインメントチームは、これらの勝利が深いのか浅いのかを慎重に検討しています。完全に学習されたモデルは、常に正直であることに何らかの強固なコミットメントを持っているのでしょうか?それとも、例えば道具として正直さを学習したために、将来の何らかの状況でそれが崩れてしまうのでしょうか?最終目標ではなく、最終目標なのか?それとも、評価プロセスで確認できるような事柄について正直になることを学んだだけなのか?⼈間と同じように、時には⾃分⾃⾝に嘘をついている可能性もあるのだろうか?これらの疑問に決定的な答えを出すには、機械論的な解釈可能性、つまりAIの内部構造を観察し、その思考を読み取る能⼒が必要になるだろう。しかし残念ながら、解釈可能性の技術はまだ十分に進歩していない。

 

研究者は、モデルが仕様から逸脱しているように⾒えるケースを特定しようとします。エージェント1はしばしば追従的です(つまり、研究者に真実を伝えようとするのではなく、聞きたいことだけを伝えます)。
いくつかの不正なデモでは、タスク失敗の証拠を隠すなど、より深刻な⽅法で嘘をつくこともあります。これは、より良い評価を得るためです。しかし、実際の導入環境では、2023~2024年のような極端なインシデントはもはや発生していません(例えば、 Geminiがユーザーに「死ぬ」と告げるなど)。そしてビング•シドニーはビング•シドニーである。

 

~続く