パーソナルAI「Apple Intelligence」の対応デバイスが“限られる”理由 | ITCトレンダー・カワピーの気になるブログ‐ゲーム、PC、デジタル機器情報

ITCトレンダー・カワピーの気になるブログ‐ゲーム、PC、デジタル機器情報

ITC関連やゲーム関連のトレンド情報を中心に語っています。
デザインなどクリエイティブな話題も多いですよ。


NPUとはなにか

NPU(Neural-Network Processing Unit)とは、AI(人工知能)の機能のうち機械学習の推論を専門に処理するプロセッサを指す。Appleシリコンに搭載されるNeural Engineもその一種で、2017年発売のiPhone Xに搭載された「Apple A11 Bionic(0.6TOPS)」で初めて採用され、Face ID(顔認証技術)やカメラ撮影のポートレートモード(人物の識別)などに利用されている。

NPUのコアであるニューラルネットワークは人間の脳の仕組みをモデルとして設計されており、入力レイヤー、中間レイヤー、出力レイヤーで構成されている。中間レイヤーは隠れレイヤーとも呼ばれ、このレイヤーではニューロンを模した演算器が網の目のように接続されることで、複雑なデータを認識したり学習することができる。

NPUはあらかじめ学習した膨大な情報(これを一般的に学習モデルという)をベースに、入力された情報から「判断」などの出力を導く「推論」と呼ばれる処理を行う。同じような処理はCPUやGPUなどでソフトウェアを使って行うこともできるが、NPUはより高速かつ省電力でこの処理を行えることが最大の特徴だ。NPUは大量の演算ユニット(ニューロン)を内蔵し、これを並列かつ同時に動かすことで高速な処理を実現している。また各演算ユニットは非常にシンプルで役割も単純、精度も限定的なことから、限られたトランジスタ数で構成されておりエネルギー消費が極めて少ない特徴を持つ。



NPUとGPUの違い

NPUが登場する以前、機械学習といえば「GPU(Graphics Processing Unit)」が主流だった。GPUはグラフィック上の大量のピクセルに高速な描画を行う必要性から、CPUと比べて数倍〜数十倍の演算コアを持ち、超並列プロセッシングを得意とする。

また膨大な数の演算コアの処理を支えるため、メモリも高速広帯域で接続されており、こちらもCPUとは桁違いの性能を持つ。これらの特徴が機械学習にも最適なことから、最近ではグラフィック表示機能を持たないAI処理用のGPUが数多く登場し、スーパーコンピュータなどにも採用されている。

ちなみにNPUで使用するAI処理の「学習モデル」の作成にも、ほとんど場合GPUが利用されている。学習モデルの作成には膨大なデータベースと大容量のメモリ、そして高速な並列処理能力が求められるためだ。

たとえば最新のNVIDIAのGPU「GeForce RTX 4090」はAI処理のためのTensorコアを備えており、その演算性能は1300TOPSを超えるとされる。最新のAppleシリコン「M4」のNeural Engineは38TOPSと発表されていることからも、RTX 4090のAI処理能力が如何に優れているかがわかる。

ただし、その電力要求は450Wと非常に大きく、モバイルデバイス(iPhone、iPad、MacBookなど)には到底搭載できない規模だ。そこで推論処理に特化したハードウェア「Neural Engine(NPU)」を開発し、機械学習を優れたエネルギー効率で処理できるようにすることで、バッテリ容量の限られたiPhoneなどにもAI機能を搭載できるようになった、という経緯がある。


生成AIとNPU

Appleは2024年6月に開催したWWDC24で、生成AI機能を備えた「Apple Intelligence」を発表した。Apple Intelligenceの最大の特徴は、ユーザ個人の状況(パーソナルコンテクスト)を理解して学習する点にある。つまり一般的なAIサービスとは異なり、AI自身がユーザの置かれている状況やオペレーションなどの(プライベートな)情報を蓄積して学習し、それをもとに各ユーザにもっとも有意義な(オプティマイズされた)情報や機能を提供する、というものだ。

この機能を実現するうえで重要なことはセキュリティの確保とプライバシーの保護であり、そのためにはパーソナルコンテクストを端末の外に持ち出すことは好ましくない。つまり、ほとんどのAI処理を端末内で完結させること(エッジAI)が重要になる。その意味でもNeural Engineは、Apple Intelligenceの機能をエッジAIで実現するためには欠かせない存在だと言えるだろう。

Apple Intelligenceが利用できるのは、現時点ではMシリーズのAppleシリコンを搭載したMacおよびiPadと、iPhone 15 Proに限定されている。A14 Bionicと同じNeural Engine(11TOPS)を搭載するM1はサポート対象で、Neural Engineがより強化されたA16 Bionic(17TOPS)ではサポートされないのはなぜか? おそらくその違いは、Appleシリコンに搭載されたメモリにあるだろうと考えられる。


MシリーズはM1を含めてすべてのモデルが8GB以上のメモリ(ユニファイドメモリ)を搭載するのに対して、Aシリーズで8GB以上のメモリを搭載するのはA17 Proだけだ。AI処理を動かすには学習モデルをメモリ上に展開する必要があるが、生成AIはそのモデルのサイズが非常に大きい。デバイス本来の機能を維持しつつ、生成AIをストレスなく動かすためには十分なメモリ容量が必要になる。iPhoneのサポート対象モデルが制限されているのは、これが原因ではないだろうか。