Arm初の自社設計CPU「AGI」——136コアでデータセンターAI推論を支配へ
Arm Holdings が、創業35年で初となる**自社設計のデータセンター向けCPU「Arm AGI CPU」**を正式発表した。136コアの Neoverse V3 を搭載し、TSMC 3nm プロセスで製造される。リードパートナーの Meta をはじめ、OpenAI、Cerebras、Cloudflare といった AI インフラの最前線にいる企業が採用を表明しており、データセンター CPU 市場の勢力図を根底から書き換える可能性がある。
Arm の2025年度(2025年3月期)売上高は約39億ドル(約5,850億円)に達し、2026年度にはデータセンター事業の成長により40〜45億ドル規模が見込まれている。同社は従来、IP ライセンスとロイヤリティ収入に依拠するビジネスモデルだったが、AGI CPU で初めて「自らシリコンを設計し、パートナーに供給する」領域に踏み込んだ。これは Intel や AMD が支配してきた x86 データセンター CPU 市場への、Arm アーキテクチャによる最大の挑戦だ。
Arm AGI CPU とは何か
AGI は「Arm General Infrastructure」の略称で、データセンターの汎用コンピュート基盤を指す。紛らわしいが、人工汎用知能(Artificial General Intelligence)の略ではない。Arm はこの命名について「次世代のインフラストラクチャを定義する」意図を込めたと説明している。
従来の Arm のビジネスモデルは、CPU コアの設計 IP(知的財産)をライセンスし、Apple・Qualcomm・Samsung などのチップメーカーが自社 SoC に組み込むという「設計図の販売」だった。AGI CPU はこのモデルを拡張し、Arm 自身が完成したチップ設計(リファレンスデザインではなく、量産可能な完成品設計)を提供する初めてのケースとなる。
以下の図は、AGI CPU のアーキテクチャ概要を示している。
この図は、136コアの Neoverse V3 を中心に、大容量 L3 キャッシュ、DDR5/CXL 対応メモリコントローラ、PCIe Gen6 高速 I/O、そして Arm CCA(Confidential Compute Architecture)によるセキュリティ機能が統合された構成を示している。右側には対象ワークロードとして AI エージェント推論、LLM サービング、クラウドネイティブ処理が列挙されている。
技術仕様の詳細
AGI CPU の中核を成すのは、Arm の最新サーバー向けコア「Neoverse V3」だ。Neoverse V3 は Armv9.2-A アーキテクチャに基づき、以下の特徴を持つ。
- 136コア構成: 単一ダイに136個の高性能コアを集積。Intel Xeon の最大144コア(w9-3595X)、AMD EPYC の最大192コア(9965 Turin)と直接競合するコア数だ
- TSMC 3nm (N3E): 業界最先端の微細化プロセスを採用。Intel・AMD の現行サーバー CPU(4nm〜5nm)より1世代先を行く
- SVE2(Scalable Vector Extension 2): 256ビット幅のベクトル演算をサポートし、AI 推論や暗号処理を高速化
- DDR5 + CXL 3.0: 次世代メモリインターフェースにより、大規模言語モデル推論時のメモリボトルネックを解消
- PCIe Gen6: GPU アクセラレータとの接続帯域を従来比2倍に拡大し、AI ワークロードの GPU オフロードを効率化
- Arm CCA / RME: Confidential Compute Architecture と Realm Management Extension により、マルチテナント環境でのデータ保護を実現
特筆すべきは、AGI CPU がエージェント AI ワークロードに特化した設計最適化を施している点だ。エージェント AI(自律的にタスクを遂行する AI)は、LLM の推論だけでなく、外部 API の呼び出し、データベースクエリ、ファイル操作など多様な I/O 処理を同時並行で実行する。このワークロードパターンは従来の GPU 中心のバッチ推論とは異なり、CPU 側の高並列処理能力と低レイテンシ I/O が重要になる。136コアの AGI CPU は、まさにこのエージェント AI 時代の要求に応える設計だ。
競合 CPU との比較
AGI CPU はデータセンター CPU 市場で Intel Xeon、AMD EPYC、そして AWS Graviton といった既存プレイヤーと直接競合する。以下の比較表で主要スペックを整理する。
| 項目 | Arm AGI CPU | Intel Xeon w9-3595X | AMD EPYC 9965 Turin | AWS Graviton4 | Ampere AmpereOne |
|---|---|---|---|---|---|
| コア数 | 136 | 144 | 192 | 96+ | 128 |
| プロセス | TSMC 3nm | Intel 3 | TSMC 4nm | TSMC 3nm | TSMC 5nm |
| ISA | Armv9.2-A | x86-64 | x86-64 | Armv9-A | Armv8.6+ |
| メモリ | DDR5 / CXL 3.0 | DDR5 / CXL 2.0 | DDR5 / CXL 2.0 | DDR5 | DDR5 |
| I/O | PCIe Gen6 | PCIe Gen5 | PCIe Gen5 | PCIe Gen5 | PCIe Gen5 |
| 推定TDP | 未公開 | 350W | 400W | 非公開 | 250W |
| 電力効率 | 極めて高い(推定) | 中程度 | 中程度 | 高い | 高い |
| 入手性 | パートナー経由 | 市場購入可 | 市場購入可 | AWS 限定 | 市場購入可 |
| AI最適化 | エージェント特化 | 汎用 | 汎用 | クラウド最適化 | クラウド最適化 |
| セキュリティ | Arm CCA/RME | SGX/TDX | SEV-SNP | Nitro | 独自実装 |
この比較から明らかなのは、AGI CPU がプロセス技術(3nm)と I/O 世代(PCIe Gen6, CXL 3.0)で他社をリードしている点だ。コア数ではAMD EPYC 9965 の192コアに及ばないが、3nm プロセスの採用による電力効率の優位性と、最新 I/O 規格の早期対応が差別化要因となる。
以下の図は、各 CPU の コア数と推定電力効率を視覚的に比較したものだ。
この図は、x86 アーキテクチャの Intel Xeon を基準(1.0x)とした場合の推定電力効率比を示している。Arm ベースの CPU は総じて x86 勢を上回る電力効率を示しており、特に AGI CPU は最新の 3nm プロセスと Neoverse V3 コアの組み合わせにより、推定2.0倍の電力効率を達成すると見られている。ただし、Arm の公式ベンチマークは本稿執筆時点で未公開であり、実測値は今後の検証を待つ必要がある。
Meta と OpenAI はなぜ Arm を選んだか
AGI CPU の発表で最も注目すべきは、Meta がリードパートナーとして名を連ねていることだ。Meta は自社開発の MTIA チップに加えて、Nvidia GPU を大量に調達しているが、AGI CPU の採用により汎用 CPU レイヤーでも Arm アーキテクチャへの移行を加速する。
Meta のインフラ戦略
Meta は現在、世界中に20以上のデータセンターを運用し、AI インフラに年間**600億ドル以上(約9兆円)**を投資している。この膨大なインフラ費用の中で、CPU コストは GPU ほど注目されないが、実際には以下の用途で大量の CPU が使われている。
- AI モデルの前処理・後処理: LLM が生成したテキストのフィルタリング、安全性チェック
- データパイプライン: 学習データの収集・クレンジング・変換
- マイクロサービス基盤: Facebook・Instagram のバックエンド API サーバー
- エージェント AI のオーケストレーション: 複数の AI モデルを連携させるワークフロー管理
これらの用途では、GPU のような並列計算能力よりも、高いシングルスレッド性能と大量のコアによる並列処理、低消費電力が求められる。AGI CPU の136コア・3nm・エージェント特化という設計は、まさに Meta のニーズに合致する。
OpenAI の採用理由
OpenAI が AGI CPU を採用する背景には、ChatGPT のエージェント機能拡大がある。2026年に入り、ChatGPT はブラウザ操作、ファイル編集、コード実行、外部 API 連携といったエージェント的タスクを次々と追加している。これらのタスクでは、GPU 上での LLM 推論だけでなく、CPU 側でのタスクスケジューリング、コンテキスト管理、I/O 処理が大きなボトルネックになる。
AGI CPU の PCIe Gen6 対応は、GPU(Nvidia H200 や B200)との高速データ転送を可能にし、CPU-GPU 間のデータ移動によるレイテンシを最小化する。OpenAI にとって、AGI CPU は「GPU を最大限に活用するための最適な CPU」という位置付けだ。
Cerebras と Cloudflare
ウェハースケールチップで知られる Cerebras は、自社の CS-3 システムのホスト CPU として AGI CPU を採用する。巨大な AI アクセラレータと組み合わせる際、ホスト CPU の I/O 帯域と消費電力が課題となるが、AGI CPU はこの両方を解決する。
Cloudflare は、世界330以上の都市に展開するエッジネットワークに AGI CPU を導入する。CDN やエッジコンピューティングでは「大量の小さなリクエストを低レイテンシで処理する」ことが求められ、136コアの高並列処理能力と Arm アーキテクチャの電力効率は理想的なフィットだ。
ビジネスモデルの転換
AGI CPU は、Arm のビジネスモデルに根本的な変化をもたらす。
従来モデル: IP ライセンス + ロイヤリティ
Arm の収益構造はこれまで、以下の2本柱だった。
- ライセンス料: チップメーカーに CPU コアの設計 IP を提供する際の一時金
- ロイヤリティ: Arm コアを搭載したチップが出荷されるたびに、チップ単価の数%を徴収
この薄利多売モデルは安定的だが、データセンター市場ではチップ単価が高く出荷数が限られるため、スマートフォン向けほどのロイヤリティ収入は見込めなかった。
新モデル: 完成チップ設計の提供
AGI CPU では、Arm 自身が完成したチップ設計を提供し、パートナー企業が TSMC で製造する。Arm はこのモデルで1チップあたりのロイヤリティ単価を大幅に引き上げることができる。IP ライセンスだけで数ドルだったロイヤリティ収入が、完成設計の提供では数十ドル〜数百ドル規模に拡大する可能性がある。
アナリストの推計では、データセンター向け Arm CPU の出荷数は2026年に年間数百万個に達する見込みで、AGI CPU の成功は Arm の売上を押し上げる重要なドライバーとなる。
Arm アーキテクチャの市場シェア拡大
データセンター CPU 市場は長らく x86(Intel + AMD)の独壇場だったが、2018年の AWS Graviton 登場以降、Arm アーキテクチャのシェアが着実に拡大している。
- 2020年: Arm のデータセンターシェアは約5%未満
- 2023年: AWS Graviton、Ampere Computing の普及により約10%に拡大
- 2025年: Microsoft Cobalt、Google Axion の投入で約15〜18%に
- 2026年(予測): AGI CPU の登場により20%超えが視野に
特に注目すべきは、AI ワークロード向け CPU において Arm の存在感が急速に高まっている点だ。AI エージェントの普及により CPU の需要が増大する中、電力効率で x86 を大きく上回る Arm アーキテクチャは、データセンター事業者にとってコスト削減の切り札となっている。
日本への影響
ソフトバンクグループとの関係
Arm はソフトバンクグループの傘下企業だ。2016年に約240億ポンド(当時約3.3兆円)で買収され、2023年の Nasdaq 再上場後もソフトバンクグループが約90%の株式を保有している。
AGI CPU の成功は、ソフトバンクグループの企業価値に直結する。孫正義会長は Arm を「AI 時代の最重要資産」と位置付けており、AGI CPU によるデータセンター市場への本格参入は、この戦略の具体化と言える。ソフトバンクグループが推進する**AI データセンター投資プロジェクト「Stargate」(米国で最大5000億ドル規模)**においても、AGI CPU の採用が検討されている可能性が高い。
日本のデータセンター市場
日本国内のデータセンター市場は、AI 需要の急増により急拡大している。
- さくらインターネット: 政府クラウド認定を取得し、AI 向けインフラを拡充中。Arm サーバーの導入を検討
- NTTデータ: グローバルデータセンター事業で Arm CPU の採用を段階的に進めている
- 富士通: Arm ベースのスーパーコンピュータ「富岳」の後継プロセッサとして Neoverse V 系コアの活用を検討中
- KDDI / ソフトバンク: 通信事業者のエッジデータセンターに Arm CPU を展開
AGI CPU は、これらの日本企業にとって「Intel/AMD に依存しないサーバー CPU の選択肢」を提供する。特に電力コストが高い日本では、Arm の電力効率の優位性は大きなメリットとなる。日本のデータセンターの電力消費量は2030年までに現在の約3倍に増加すると予測されており、電力効率の高い CPU への移行は避けられない。
半導体サプライチェーンへの影響
AGI CPU は TSMC 3nm で製造されるため、すでに逼迫している最先端プロセスの需要をさらに押し上げる。Apple・Nvidia・AMD・Qualcomm に加えて Arm 自身が TSMC の3nm ラインを利用することで、日本の半導体装置メーカー(東京エレクトロン、ディスコ、SCREENなど)への装置需要も増加する。
AWS では、すでに Graviton シリーズによる Arm インスタンスが主力の一つとなっている。AGI CPU の技術が将来の Graviton に取り込まれれば、日本のAWS利用企業にとっても恩恵は大きい。同様に、Google Cloud も Axion プロセッサで Arm エコシステムに参入しており、AGI CPU の技術革新はクラウドベンダー全体の Arm シフトを加速させるだろう。
エージェント AI 時代と CPU の役割
AGI CPU が「エージェント AI ワークロードに特化」と謳っている点は、半導体業界のトレンドを象徴している。
2025年後半から2026年にかけて、AI の主流は「チャットボット型の対話 AI」から「自律的にタスクを遂行するエージェント AI」へと急速にシフトしている。ChatGPT のオペレーター機能、Google の Project Mariner、Anthropic の Computer Use など、主要 AI 企業がこぞってエージェント機能を強化している。
エージェント AI のワークロード特性は、従来の LLM 推論とは大きく異なる。
- 長時間のセッション管理: 1回のリクエストで数分〜数時間のタスクを実行
- 高頻度の I/O 操作: ブラウザ操作、ファイルシステム、データベース、外部 API への大量アクセス
- 複数モデルの同時実行: テキスト生成、画像認識、コード実行など複数の AI モデルを連携
- 状態管理の複雑さ: タスクの進捗、中間結果、エラーリカバリの状態を CPU 側で管理
これらの特性は、GPU よりも CPU の高並列・低レイテンシ処理能力に大きく依存する。AGI CPU の136コアは、数百のエージェントセッションを同時に管理するのに十分なリソースを提供し、PCIe Gen6 による GPU との高速接続で推論処理を効率的にオフロードできる。
リスクと課題
AGI CPU には楽観的な展望だけでなく、以下の課題も存在する。
ソフトウェアエコシステムの壁
データセンターソフトウェアの多くは x86 向けに最適化されており、Arm への移植には追加コストがかかる。特に、レガシーなエンタープライズソフトウェアの対応が遅れる可能性がある。AWS Graviton は数年かけてエコシステムを構築してきたが、AGI CPU がこのレベルの互換性を実現するまでには時間を要するだろう。
自社製品とライセンシーの利益相反
Arm の最大のリスクは、AGI CPU が既存ライセンシーとの競合を生む可能性だ。Ampere Computing、Marvell、NVIDIA(Grace CPU)といった Arm ベースのサーバー CPU メーカーにとって、Arm 自身が完成チップを提供することは直接的な脅威となる。Arm はこの点について「AGI CPU はパートナーシップモデルであり、競合ではない」と説明しているが、市場の受け止め方は今後の動向次第だ。
TSMC への依存
3nm プロセスでの製造は TSMC に完全に依存する。地政学的リスク(台湾情勢)や製造能力の制約は、AGI CPU の供給安定性に影響を与える可能性がある。
まとめ: エンジニアが今すべきこと
Arm AGI CPU の発表は、データセンター CPU 市場の転換点を示す出来事だ。以下の具体的なアクションを推奨する。
-
Arm 環境での開発・テストを開始する: AWS の Graviton インスタンス(C7g/M7g)や Google Cloud の Axion インスタンスで自社ワークロードを Arm 上で検証し、x86 依存からの脱却準備を進める。パフォーマンスとコストの比較データを蓄積しておくことが重要だ
-
エージェント AI のインフラ設計を見直す: 自社でエージェント AI を開発・運用している場合、CPU リソースの配分を再検討する。GPU だけでなく、CPU 側の並列処理能力と I/O 帯域がボトルネックになっていないか確認し、AGI CPU のような高コア数 CPU への移行計画を策定する
-
Arm 向けソフトウェア最適化を検討する: 自社の基幹ソフトウェアやミドルウェアが Arm で正常に動作するか確認する。特に x86 固有の SIMD 命令に依存している処理があれば、SVE2 への移植を計画的に進める。Docker コンテナのマルチアーキテクチャビルド(amd64 + arm64)の導入も有効だ
-
半導体業界の動向をウォッチする: AGI CPU の量産は2026年後半を予定している。Intel の次世代 Xeon(Sierra Forest / Granite Rapids 後継)、AMD の EPYC 次世代の動向と合わせて、3〜5年先のインフラ計画に反映する。ソフトバンクグループの AI データセンター投資の進捗も、日本市場への影響を占う上で注目すべきだ