半導体15分で読める

AMD MI400Xが登場——HBM4搭載でNvidiaに本気の勝負

AMDが次世代AIアクセラレータ**「Instinct MI400X」を正式に発表した。価格は$10,999(約165万円)から**。前世代MI300Xと比較して推論性能2倍、学習コスト40%削減を実現し、NvidiaのH200やB200に真正面から対抗する製品となる。HBM4メモリを業界で初めてデータセンター向けGPUに搭載し、メモリ容量256GB、帯域幅8.0 TB/sという圧倒的なスペックを誇る。

AI半導体市場はNvidiaが80%以上のシェアを握る「一強状態」が続いているが、MI400Xの登場はこの構図を揺るがす可能性がある。Meta、Microsoft、Oracleといった大手クラウドベンダーが早期採用を表明しており、2026年後半のAIインフラ投資の焦点となりそうだ。

AMD Instinct MI400Xとは何か

MI400Xは、AMDのデータセンター向けAIアクセラレータ「Instinct」シリーズの最新フラッグシップモデルだ。前世代のMI300Xが2024年に登場して以来、約2年ぶりのメジャーアップデートとなる。

アーキテクチャの進化:CDNA 5

MI400Xの心臓部には、AMDが新たに設計したCDNA 5アーキテクチャが採用されている。TSMCの3nmプロセスで製造され、前世代CDNA 4(MI300Xに搭載)の5nm/6nmハイブリッド構成から大幅に微細化された。

チップレット構成も進化している。MI300Xが8基のXCD(Accelerator Complex Die)を搭載していたのに対し、MI400Xは12基のXCDを搭載。演算ユニット(CU:Compute Unit)の数は304基から512基へと68%増加した。これにより、FP8(8ビット浮動小数点)演算性能は2.6 PFLOPSから4.9 PFLOPSへとほぼ倍増している。

HBM4:次世代メモリの先行採用

MI400Xの最大の差別化ポイントは、HBM4メモリの業界初採用だ。HBM4はSK hynixとSamsungが量産を開始したばかりの最新世代高帯域メモリで、従来のHBM3/HBM3Eと比較して以下の優位性がある。

  • 容量: 1スタックあたり最大64GB(HBM3は24GB)
  • 帯域幅: 1スタックあたり2TB/s(HBM3Eは1.2TB/s)
  • 電力効率: ビットあたりの消費電力を約30%削減

MI400Xにはこのメモリを4スタック搭載し、合計256GB・8.0 TB/sのメモリシステムを実現した。大規模言語モデル(LLM)の推論では、モデル全体をGPUメモリに載せられるかどうかがスループットを大きく左右するため、この256GBという容量は70Bパラメータクラスのモデルを単一GPU上で推論できることを意味する。

以下の図はMI400XとMI300X、Nvidia B200の主要スペックを比較した棒グラフです。メモリ容量・帯域幅・FP8演算性能のいずれにおいてもMI400Xが競争力のある数値を示しています。

MI400X・MI300X・Nvidia B200の主要スペック比較棒グラフ

MI300XからMI400Xへ——何が変わったのか

MI300Xは「Nvidiaに初めて性能で肩を並べたAMD GPU」として高い評価を受けたが、ソフトウェアエコシステムの未成熟さが課題だった。MI400Xでは、ハードウェアだけでなくソフトウェアスタック全体を大幅に刷新している。

ROCm 7.0:ソフトウェアの壁を越える

AMDのGPUコンピューティングプラットフォーム「ROCm」は、NvidiaのCUDAに対抗するオープンソースのソフトウェアスタックだ。MI300X時代のROCm 6.xでは、PyTorchやJAXとの互換性に一部問題があり、開発者から「CUDAと比べて手間がかかる」という声が上がっていた。

ROCm 7.0では以下の改善が施された。

  • PyTorch 3.x / JAX 0.5のネイティブサポート: ドロップインでCUDAからの移行が可能に
  • Tritonコンパイラの完全対応: カスタムカーネルの開発効率が大幅向上
  • vLLM / TensorRT-LLM互換レイヤー: 主要な推論フレームワークをそのまま利用可能
  • マルチGPUスケーリング: Infinity Fabric 4.0による8GPU間の高速通信

以下の図はMI300XからMI400Xへの進化ポイントをまとめたロードマップです。プロセスの微細化、メモリ世代の刷新、演算性能の倍増など、あらゆる面で大幅な進化を遂げていることがわかります。

MI300XからMI400Xへの進化ロードマップ

電力効率の改善

データセンターにおいて電力消費は運用コストの大部分を占めるため、ワットあたりの性能(Performance per Watt)は極めて重要な指標だ。MI400XのTDPは700Wと、MI300Xの750Wから50W削減されているにもかかわらず、演算性能は約2倍に向上している。つまり、ワットあたり性能は約2.1倍の改善となる。

AMDはこの電力効率の改善により、同じ電力予算でより多くのGPUを稼働させられることをアピールしている。1,000GPU規模のクラスターでは、年間の電力コスト削減額は数千万円規模に達する計算だ。

競合製品との徹底比較

AI半導体市場の主要プレイヤーは、Nvidia、AMD、Intelの3社だ。加えて、Google(TPU)やAmazon(Trainium)といったクラウドベンダーの自社チップも台頭している。以下の表で主要製品を比較する。

項目AMD MI400XAMD MI300XNvidia B200Nvidia H200Intel Gaudi 3
発表年20262024202520242024
プロセス3nm5nm/6nm4nm4nm5nm
アーキテクチャCDNA 5CDNA 4BlackwellHopperGaudi
FP8性能4.9 PFLOPS2.6 PFLOPS4.5 PFLOPS1.98 PFLOPS1.84 PFLOPS
メモリHBM4 256GBHBM3 192GBHBM3E 192GBHBM3E 141GBHBM2E 128GB
メモリ帯域8.0 TB/s5.3 TB/s8.0 TB/s4.8 TB/s3.7 TB/s
TDP700W750W1,000W700W600W
価格帯$10,999〜$10,000〜$30,000〜$25,000〜$12,000〜
ソフトウェアROCm 7.0ROCm 6.xCUDA 13CUDA 12Habana SDK

この表から読み取れる重要なポイントは3つある。

1. 性能面ではNvidia B200と互角。FP8演算性能はMI400Xの4.9 PFLOPSに対してB200は4.5 PFLOPSと、AMDがわずかにリードしている。メモリ帯域も同等の8.0 TB/s。一方、メモリ容量ではMI400Xの256GBがB200の192GBを大きく上回る。

2. 価格差は約3倍。MI400Xの$10,999に対して、B200は$30,000前後。同じ予算で約3倍の台数を導入できる計算になる。ただし、CUDAエコシステムの成熟度を考慮すると、単純な価格比較だけでは判断できない。

3. 電力効率でもAMDが優位。MI400XのTDPは700Wで、1,000WのB200と比べて30%低い。大規模クラスターでは電力コストが年間数億円単位で変わるため、この差は無視できない。

価格と入手性

MI400Xの価格体系は以下のとおりだ。

モデル価格(USD)日本円換算(1ドル=150円)
MI400X(単体)$10,999約165万円
MI400X OAM(8GPU構成)$89,999約1,350万円
Instinct Platform(サーバー一式)$199,999〜約3,000万円〜

Nvidia B200の$30,000〜と比較すると、GPU単体で約65%安い計算になる。8GPU構成のサーバーで比較しても、AMDプラットフォームはNvidia DGX B200(約$400,000)の4分の1以下の価格だ。

出荷開始は2026年Q3(7月〜9月)が予定されている。初期ロットはMeta、Microsoft、Oracle Cloud Infrastructureなど大手クラウドベンダーに優先的に割り当てられ、一般企業向けの供給は2026年Q4以降になる見込みだ。日本国内では、Dell Technologies、HPE、Supermicroの代理店経由で購入可能になる予定で、国内価格は190万〜210万円程度になると予想される。

日本市場への影響と展望

MI400Xの登場は、日本のAI開発・導入環境にどのような影響を与えるだろうか。

コスト面での恩恵

日本企業にとって最も大きなインパクトはAI計算コストの削減だ。現在、国内のAIスタートアップやエンタープライズ企業の多くは、Nvidia GPUの高コストに苦慮している。A100やH100の調達費は数千万〜数億円規模となり、特にスタートアップにとっては参入障壁となっていた。

MI400Xが同等以上の性能を3分の1の価格で提供できるなら、日本のAI産業全体の裾野を広げる効果が期待できる。NEDO(新エネルギー・産業技術総合開発機構)や経済産業省が推進する「GENIAC」プロジェクトなど、国策としてのAI計算基盤整備にもAMD製品の採用が検討される可能性がある。

ソフトウェアエコシステムの課題

ただし、日本市場でAMD GPUが普及するためには乗り越えるべきハードルがある。日本のAI開発者コミュニティはCUDAへの依存度が高く、ROCmに関する日本語ドキュメントやコミュニティサポートはまだ限定的だ。

AMDジャパンはMI400Xの国内販売に合わせて、以下の施策を計画しているとされる。

  • 日本語ROCmドキュメントの整備
  • 国内大学・研究機関へのGPU貸出プログラム
  • SI(システムインテグレーター)パートナーの拡大
  • 国内AIフレームワーク(例:PFN のOptuna等)との互換性検証

さくらインターネットやKDDI等の動向

日本のデータセンター事業者にとっても、MI400Xは魅力的な選択肢となる。さくらインターネットは政府のクラウド計算基盤プロジェクトでNvidia GPUを大量に調達しているが、調達コスト削減のためにAMDとの併用を検討しているとの情報もある。KDDIやNTTデータなど大手SIerも、顧客企業へのAI基盤提供においてマルチベンダー戦略を取り始めており、MI400Xはその有力な候補となりうる。

AI半導体市場の今後——Nvidia一強は続くのか

2026年時点でのAI半導体市場は、Nvidiaが約80%のシェアを握る圧倒的な一強状態にある。しかし、MI400Xの登場により、今後12〜18ヶ月で市場構造が変化する可能性がある。

AMDの戦略:「十分に良い」性能と圧倒的な価格

AMDのLisa Su CEOは発表会で「AIアクセラレータ市場の成長は1社だけでは賄えない」と述べ、市場全体の拡大を強調した。MI400Xの戦略は「NvidiaのCUDAエコシステムに完全に追いつく必要はなく、コストパフォーマンスで選ばれる2番手ポジションを確立する」というものだ。

実際、推論ワークロードではCUDA依存度が学習時ほど高くなく、ROCm 7.0の改善により移行コストは大幅に低下している。大規模推論サーバーを構築するクラウドベンダーにとって、MI400Xの価格優位性は極めて魅力的だ。

Intelの苦境

一方、Intel Gaudi 3はMI400Xの登場により、さらに厳しい立場に追い込まれる。性能・価格・エコシステムのいずれでもAMDに後れを取っており、Intelが「3番手」の座を維持するためには次世代Falconシリーズで巻き返す必要がある。

中国市場の影響

米国の対中輸出規制により、NvidiaのH200/B200は中国市場で販売できない。AMDのMI400Xも同様の規制対象となる見込みだが、中国国内ではHuaweiのAscend 910Cなど独自AIチップの開発が加速している。規制がAI半導体市場を分断する構図は、今後も続くだろう。

まとめ——MI400Xの登場で何をすべきか

AMD MI400Xは、AI半導体市場においてNvidia一強の構図に風穴を開ける可能性を持つ製品だ。HBM4搭載による256GBの大容量メモリ、FP8 4.9 PFLOPSの高い演算性能、そして$10,999からという攻撃的な価格設定は、コスト意識の高い企業やクラウドベンダーにとって非常に魅力的な選択肢となる。

今後のアクションステップとしては、以下を推奨する。

  1. ROCm 7.0の検証環境を構築する: AMDの開発者プログラムに登録し、既存のCUDAワークロードがROCm上で動作するか早期に検証を開始する。特に推論パイプラインは移行コストが低いため、まずはそこから試すのが効率的だ。

  2. TCO(総保有コスト)を再計算する: GPU単価だけでなく、電力コスト・冷却コスト・ソフトウェア移行コストを含めたTCOベースでNvidiaとAMDを比較する。MI400Xは電力効率でも優位なため、3年間のTCOではさらに大きな差が出る可能性がある。

  3. 2026年Q3の出荷開始に向けて調達計画を立てる: 初期ロットは大手クラウドベンダーに優先供給されるため、一般企業は早めにSIerやOEMベンダーに相談し、Q4以降の調達枠を確保しておくことが望ましい。

AI半導体の選択肢が増えることは、業界全体にとってプラスだ。Nvidia一強の時代は徐々に終わりに向かいつつある。MI400Xがその転換点となるか、今後の市場動向を注視していきたい。

この記事をシェア