階層的推論モデル(HRM)という新たなAIがシンガポールのSapient Intelligeneから登場している。

これは大規模言語モデル(LLM)には出来なかった複雑なタスクを攻略することができ、しかも非常に少ないパラメータ、学習データ量、計算リソースで実現できている。

以下の記事によれば、HRMは「少ないデータで学習でき、低コストで高速な推論が可能」、「軽量で効率的」、「クラウドに頼らない」という特徴があるため、「物流の最適化、複雑な金融商品のリスク分析、工場の生産ラインにおける異常検知」といったビジネス・産業応用での利用、「医薬品開発や気候科学、材料科学」といった科学研究での利用、「自動運転車、ドローン、スマート家電」といったエッジAIでの利用が期待されている。

このHRMは「GPU1億個」や「データセンターや原発建設などへの数兆ドルのインフラ投資」というような力業ではなく、人間の思考に近い推論能力によってAGIへの道を開拓し得るポテンシャルを秘めている。

グーグル 新設の次世代原発で電力確保へ AI開発に必要なデータセンター向けに【知っておきたい!】【グッド!モーニング】(2025820)

ChatGPT「あと1GPU×3兆ドル」不足──激化するAI競争、日本が直面する“計算資源格差” | AMP[アンプ] - ビジネスインスピレーションメディア

AIデータセンター急増、電力爆食の懸念 Google原発投資 - 日本経済新聞

 

以下の記事にあるように、構造の賢さ、戦略家と実行部隊というチームワーク、というようなアプローチがどうやら本当のAIに近づくために重要であるようだ。

(これまでの生成AIは本当の知能ではなく、「真の理解力はない」「統計データや過去の傾向などに基づいて、より好ましいと思われる結果を確率的に返す」といったものであると言われている)

https://toyokeizai.net/articles/-/899209

https://xtech.nikkei.com/atcl/nxt/column/18/03242/062000001/?P=2

 

 

【参考】2025年8月28日の記事(一部抜粋)

大規模化の一途をたどるAI開発の潮流に、一石を投じる革新的なアーキテクチャが登場した。シンガポールのAIスタートアップ「Sapient Intelligence」が開発した「階層的推論モデル(Hierarchical Reasoning Model, HRM)」である。人間の脳が持つ階層的で効率的な情報処理に着想を得たこのモデルは、わずか2,700万という驚異的な少なさのパラメータで、ChatGPTをはじめとする巨大言語モデル(LLM)が苦戦する複雑な推論タスクを次々と攻略。AI開発の未来が、必ずしも「大きさ」だけにあるのではないことを鮮烈に示したのだ。

現代のAI、特にLLMの進化は、「スケーリング則」という経験則に支えられてきた。これは、モデルのパラメータ数、学習データの量、そして計算リソースを増やせば増やすほど、性能が向上するという考え方だ。この法則に従い、AI業界はパラメータ数を数十億から数兆へと引き上げる巨大化競争を繰り広げてきた。

しかし、この力任せとも言えるアプローチは、いくつかの深刻な課題に直面している。一つは、天文学的な計算コストとエネルギー消費だ。そしてもう一つ、より本質的な問題が「推論能力の限界」である

この壁を乗り越えるために広く採用されてきたのが、「思考の連鎖(Chain-of-Thought, CoT)」と呼ばれる技術だ。これは、複雑な問いに対してAIが最終的な答えを出す前に、人間のように思考のプロセスを文章として書き出させる手法である。例えば「太郎君はリンゴを5個持っていました。花子さんから3個もらい、その後2個食べました。残りは何個?」という問いに、「まず5個持っていた。3個もらったので5+3=8個。2個食べたので8-2=6個。答えは6個」というように、段階的な思考を生成させる。

CoTは確かにLLMの推論能力を飛躍的に向上させた。しかし、この手法も万能ではない。Sapient Intelligenceの研究者らが指摘するように、CoTは「満足のいく解決策ではなく、いわば松葉杖」なのだ。その理由は、CoTが持つ根本的な脆さにある。思考のプロセスが一つでも間違ったり、順序が狂ったりすると、結論全体が崩壊してしまう。さらに、思考をすべて言語トークンとして生成するため、応答に時間がかかり、膨大な学習データを必要とするという欠点も抱えていた。

AIが真の知能に近づくためには、この脆く、非効率な「言葉による思考」から脱却し、より効率的で堅牢な推論メカニズムを獲得する必要があった。その答えを、Sapient Intelligenceは人間の脳に見出したのである。

HRMの核心は、人間の脳が情報を処理する際の「階層性」と「マルチタイムスケール」という二つの特性を模倣した点にある。私たちの脳は、単一の巨大な処理装置ではなく、異なる役割を持つ領域が、異なる時間スケールで連携しながら機能している。例えば、瞬時の判断を下す領域と、長期的な計画を練る領域が同時に働いている。

この構造に着想を得て、HRMは二つの連携する再帰的(リカレント)モジュールで構成されている。

  1. 高レベル(H)モジュール: 人間の脳で言えば、熟考や計画を司る前頭前野のような役割を担う。ゆっくりと動作し、問題全体の戦略を立てたり、抽象的な計画を練ったりする「戦略家」である。
  2. 低レベル(L)モジュール: より高速に動作し、高レベルモジュールから与えられた具体的なサブタスクを迅速に処理する「実行部隊」だ。詳細な計算や探索を担当する。

この二つのモジュールが連携することで、「階層的収束」と呼ばれる独自のプロセスが生まれる。まず、戦略家であるHモジュールが全体的な方針を決定する。その指示に基づき、実行部隊のLモジュールが高速で計算を繰り返し、局所的な解(ある部分問題の答え)を見つけ出す。Lモジュールが一旦安定した解にたどり着くと、その結果がHモジュールにフィードバックされる。Hモジュールはその結果を受けて戦略を更新し、次のサブタスクをLモジュールに指示する。

このプロセスは、まるで経験豊富なマネージャー(Hモジュール)が、優秀な部下(Lモジュール)に仕事を割り振り、進捗報告を受けて次の指示を出す、という効率的なチームワークにも似ている。この仕組みにより、従来の再帰型ネットワークが陥りがちだった「早すぎる収束(十分に検討せず安易な結論に飛びつく問題)」を回避し、一つの問題を多角的に、そして粘り強く検討し続けることが可能になるのだ

この洗練されたアーキテクチャがもたらした成果は、衝撃的というほかない。研究チームは、HRMの能力を測るため、現代のAIにとって最も困難とされる複数のベンチマークでテストを実施した。

このARC-AGIベンチマークにおいて、わずか2,700万パラメータのHRMは40.3%というスコアを記録。これは、はるかに巨大なモデルであるOpenAIのo3-mini-high(34.5%)や、Anthropic社の最新モデルClaude 3.7 Sonnet(21.2%)を明確に上回る結果であった。

さらに驚くべきは、論理的推論の深さが要求されるタスクでのパフォーマンスだ。

  • Sudoku-Extreme: 極めて難しい数独パズル群。最先端のCoTを用いたLLMたちの正答率は0%。一問も解けなかった。対してHRMは、55.0%という驚異的な正答率を達成した。
  • Maze-Hard: 30×30の複雑な迷路で最適経路を見つけ出すタスク。ここでもLLMは0%と全く歯が立たなかったが、HRMは74.5%の確率で正解を導き出した。

これらの結果が持つ意味は大きい。それは、HRMが単に既存モデルより少し優秀だという話ではない。これまでAIが不得手としてきた、広範な探索や試行錯誤(バックトラッキング)を必要とする種類の問題解決において、質的なブレークスルーを達成したことを示唆している

そして何より特筆すべきは、これらの成果が、わずか1,000個という極めて少数の学習サンプルで達成されたという事実だ。数十億、数兆のパラメータを持ち、インターネット全体に匹敵するデータを学習する巨大LLMとは、対極的なアプローチである。HRMは、AIの知性が「量」だけでなく、「構造の賢さ」によってもたらされることを雄弁に物語っている。

https://xenospectrum.com/new-model-mimicking-the-human-brain-demonstrates-reasoning-capabilities-surpassing-chatgpt/

 

(一部の専門家によると、「性能向上への貢献は、論文で強調されている『階層的アーキテクチャ』そのものよりも、論文では詳しく記述されていなかった『訓練中の反復的な改良プロセス』に負うところが大きい可能性がある」とのことであり、現時点では何がこの飛躍的な性能向上をもたらしたのかについては詳細不明のようだ)

 

 

 

※生成AIブームがバブルになっていることは既に誰もが認めるところとなっているが、やはり以前から指摘されている通り、過剰投資と過剰な借り入れによって成果が出ていない企業は次々と淘汰されていくのだろう。

 

【参考】2025824日の記事

クレジット投資家は巨額の資金を人工知能(AI)関連投資につぎ込んでいるが、業界幹部やアナリストらの間では、AI技術が新たなバブルを膨らませていないか疑念が生じている。

  事情に詳しい複数の関係者によれば、JPモルガン・チェースと三菱UFJフィナンシャル・グループ(MUFG)は、大規模なキャンパス型データセンターを建設するバンテージ・データセンターズの計画を支援するため、220億ドル(約3兆2300億円)余りの融資を主導している。

  ブルームバーグが今月伝えたところでは、メタ・プラットフォームズは、米ルイジアナ州の大規模データセンター建設に向け、パシフィック・インベストメント・マネジメント(PIMCO)とブルー・アウル・キャピタルから290億ドルを確保した。

  この種のディールは今後も相次ぐ見通しだ。オープンAIに限っても、AIサービスの開発・運営に不可欠なインフラの整備費用について、長期的に数兆ドル単位の資金が必要になると見込んでいる

  業界の主要プレーヤーも、AI投資が今後痛みを伴う可能性が高いと認める。オープンAIのサム・アルトマン最高経営責任者(CEO)は今週、今のAI投資熱と1990年代後半のドットコムバブルとの間に類似点があるとの見方を示し、スタートアップ企業評価を話題にした際、「誰かが痛い目に遭うだろう」と述べた。

  マサチューセッツ工科大学(MIT)が公表した報告によれば、企業の生成AIプロジェクトの95%が利益を生んでいないクレジット市場ウオッチャーを十分不安にさせる状況だ。

  シティグループの米投資適格クレジット戦略責任者、ダニエル・ソリッド氏は「通信会社がほぼ間違いなく過剰投資と過剰な借り入れを行い、資産に著しい評価損が生じた2000年代初めをクレジット投資家が想起するのは当然だ。AIブームも確かに持続可能性に中期的に疑問を投げ掛ける」と指摘した。

https://www.bloomberg.co.jp/news/articles/2025-08-24/T1GWPPGP493600

 

 

 

※これまでのAIは本当の知能ではないと言われていた。

 

【参考】2025/08/21の記事

AIは技術的なツールにすぎない

そもそも、最も欺瞞的な言葉は "人工知能(AI"である。これらのシステムは真に知的なものではなく、今日私たちが「AI」と呼んでいるものは、特定の認知機能を模倣するために設計された一連の技術的ツールにすぎない。人工知能には真の理解力はない。客観的でもないし、公正でも中立でもない。

また、AIがより賢くなることもない。AIシステムが機能するためにはデータが必要だが、そのデータにはChatGPTのようなツールが生成したデータも含まれることが多くなっている。その結果、より深い理解を得ることなく出力を繰り返すフィードバック・ループが生じている。

より根本的には、知能とはタスクを解決することだけではなく、それらのタスクがどのようにアプローチされ、実行されるかということでもある。

その技術的能力にもかかわらず、AIモデルは依然として、大規模なデータセットの処理、論理的な推論の実行、計算など、特定の領域に限定されている。

https://toyokeizai.net/articles/-/899209

 

【参考】2025626日の記事

AIシステムは「確率的な処理」が中心となります。多様な問い合わせに対して、統計データや過去の傾向などに基づいて、より好ましいと思われる結果を確率的に返すことが求められます。オンラインストアにおけるレコメンデーションのようなものです。そのためには、データには多様性と豊富なコンテキストがあることが重視されます。コンテキストとは文脈や前後関係、状況、背景など、どのような意味や意図があるかを理解するための情報です。構造化されていないテキスト、画像、音声なども重要な情報源となります。

https://xtech.nikkei.com/atcl/nxt/column/18/03242/062000001/?P=2

 

 

 

一部の調査では、AIを利用したソフトウェア開発において生産性が低下したという。しかし、HRMの登場によってAIの信頼性が高まれば確認作業などの余計な労力を必要としなくなり、真の効率化や生産性向上をもたらすのかもしれない。

 

【参考】2025年8月22日の記事

AIコーディングアシスタントは、経験のあるソフトウェア開発者の生産性を19%低下させたことが、METRの調査で示唆された。

・開発者はAIツールを過信し、生産性が20%上がったと考えていたこともわかった。

AIコードエディターは2月の調査時より進化しており、この結果は特定の分野に特化したものだと専門家は警告している。

AIコードエディターは急速にソフトウェア開発の主流になり、アマゾン(Amazon)、マイクロソフト(Microsoft)、グーグル(Google)などのテック大手が採用している。

興味深いことに、新しい調査では、AIツールが一部の開発者の生産性を下げていることが示唆された。

https://www.businessinsider.jp/article/2508-ai-coding-tools-may-decrease-productivity-experienced-software-engineers-study/

 

 

 

※去年の時点で、LLMよりも低コストでコンパクトなSLMが主流になるのではないかという見方が出ていた。HRMはSLMのようなメリットがあり、しかもずっと高性能らしい。

 

【参考】2024729の記事(一部抜粋)

生成AI(人工知能)に不可欠な大規模言語モデル(LLM)の開発競争が過熱するなか、よりパラメーター数が小さい「小規模言語モデル(SLM)」が注目されている。運用コストを抑え、機微なデータを扱う分野に適しているためだ。スタートアップによる開発が先行するが、米グーグルなどビッグテックも急速に参入しつつある。

LLMを導入している企業の費用は数百万ドル(数億〜十数億円)に上る場合もある。企業はAIの費用対効果を重視しており、LLMよりもパラメーター数が少なく、学習コストを抑えられ、運用しやすいSLMが魅力的な選択肢になりつつある。巨大テックからスタートアップまで、SLMを手掛ける企業はこの1年で増えている。

小規模モデル(軽量モデル)は分野を絞ったデータセットで学習させることにより、大規模モデルに勝るとも劣らない精度と性能を持たせ、対象アプリケーションに磨きをかけることができる。

SLMは今後主流になるだろう。医療分野の事務負担の一部など、大半の用途では巨大なLLMを自前で持つ必要はない」(多くの国で事業を展開する上場医療保険会社の機械学習担当バイスプレジデント)

SLMは金融、医療、法律など特にデリケートなデータを扱う業界で普及しそうだ。

SLMLLMよりも構造がコンパクトなため、ローカルで展開しやすく、データを外部サーバーではなく顧客の環境内にとどめることができる。このため、デリケートなデータを扱う業界の機密性やプライバシーの懸念に対処しやすい。

マイクロソフトのサティア・ナデラ最高経営責任者(CEO)は2446月期決算の説明会で「当社はLLMに匹敵する性能を備えつつも、ノートパソコンやモバイル端末で運用できる世界で最も人気のSLMも開発している

https://www.nikkei.com/article/DGXZQOUC2479C0U4A720C2000000/