MIT Tech Review: 消費電力「数十万分の一」、ハード実装の次世代ニューラルネット

 

「MIT Tech Review: 消費電力「数十万分の一」、ハード実装の次世代ニューラルネット」がちょっと面白い。

 

「グレース・ハッキンズ [Grace Huckins]

米国版 寄稿者

フリーランスの科学ジャーナリスト。スタンフォード大学の博士候補生(神経科学)。」

 

「スタンフォード大学の研究チームは、論理ゲートを利用してニューラル・ネットワークを構築することで、エネルギー消費量を大幅に削減する方法を発表した。最終的には「ハードウェア基盤モデル」と呼ぶものを作りたいと考えだ。

・低消費電力なコンピューターチップ上の論理ゲートネットワークが開発された

・訓練には従来の数百倍の時間を要するが一度訓練すれば大幅なコスト削減が可能

・開発者は効率性を追求し、将来的にはパーソナル機器に組み込むことも目指している」

 

「コンピューターチップのハードウェアに直接プログラムされたネットワークは、現代のほとんどの人工知能(AI)システムの基盤となっている従来のニューラル・ネットワークよりも高速に画像を識別でき、消費電力もはるかに少なくて済む。このような研究結果が、バンクーバーで12月10~15日に開催された機械学習分野のトップカンファレンス「神経情報処理システム(NeurIPS:Neural Information Processing Systems)2024」で発表された。」

 

「GPT-4からステーブル・ディフュージョン(Stable Diffusion)に至るまで、ニューラル・ネットワークは、人間の脳内のニューロンを高度に単純化したシミュレーションであるパーセプトロンを多数つなぎ合わせて構築されている。膨大な数のパーセプトロンで構成されるニューラル・ネットワークは高性能だが、膨大な量のエネルギーを消費する。マイクロソフトはAI開発に必要な電力を得るために、スリーマイル島原子力発電所を再稼働させる契約を結んだほどだ。」

 

「問題のひとつとして、現在のパーセプトロンが単にソフトウェア抽象化したものにすぎないということがある。GPU(画像処理装置)上で多層パーセプトロン・ネットワークを実行するには、そのネットワークをハードウェア言語に翻訳する必要があり、それには時間とエネルギーが必要となる。ハードウェア・コンポーネントから直接ネットワークを構築すれば、こうしたコストの多くを削減ができる。将来的には、スマホやその他の機器で使用されるチップに直接組み込むことも可能になり、サーバーとの間でデータを送受信する必要性が激減するかもしれない。」

 

 

小松 仁