HBM4規格が始動——AI時代の帯域幅2TB/s争奪戦
AI半導体の性能ボトルネックが「演算能力」から「メモリ帯域幅」に移行しつつある。大規模言語モデル(LLM)のパラメータ数は1兆を超え、GPUがどれほど高速でも、データをメモリから読み出す速度が追いつかなければ意味がない。この問題を解決するのが**HBM4(High Bandwidth Memory 4)**だ。
JEDECが2025年末にHBM4規格を正式策定し、帯域幅2TB/s超、容量48GB/スタック、I/Oバス幅2048ビットという驚異的なスペックが明らかになった。SK Hynix、Samsung、Micronの3社がHBM4の量産を目指して激しい開発競争を繰り広げている。AI GPU市場の拡大とともに、HBMメモリは半導体業界で最も利益率の高い製品となった。
HBMとは何か——なぜAIにHBMが必要なのか
HBM(High Bandwidth Memory)は、複数のDRAMダイ(チップ)を縦に積み重ね、TSV(Through-Silicon Via、シリコン貫通ビア)で接続した3D積層メモリだ。通常のDDR5メモリが1チップあたり64ビットのバス幅で接続されるのに対し、HBMは1スタックあたり1024〜2048ビットの超広帯域バスを持つ。
AI GPU(Nvidia H100/H200、AMD MI300Xなど)がHBMを採用する理由は3つある:
- 帯域幅: LLMの推論・学習では、数十GBのパラメータを毎秒何度も読み出す必要がある。DDR5の帯域幅(約100GB/s/チャネル)では根本的に不足
- 電力効率: HBMはチップ間の配線距離が極めて短い(数十μm)ため、同じ帯域幅をDDR5で実現するより消費電力が約3〜4倍少ない
- 実装面積: 基板上の面積を大幅に節約でき、GPU本体のダイサイズを大きくできる
以下の図は、HBM3eからHBM4への進化を示しています。
HBM4の技術的進化
帯域幅2TB/s超の実現
HBM4の最大の進化は帯域幅だ。HBM3eの1.18TB/sから約1.7倍の2TB/s超に引き上げられる。これを実現する技術的な変更は:
- I/Oバス幅の倍増: 1024ビット→2048ビット。1スタックあたりのデータパスが2倍に
- データレートの向上: ピンあたり6.4Gbps以上(HBM3eは5.6Gbps)
- チャネル数: 32チャネル(HBM3eは16チャネル)
ただしI/Oバス幅の倍増には課題もある。GPU側のインターフェース回路が大きくなるため、GPUダイの約15〜20%がHBM I/Oに消費される計算だ。これを解決するために、NvidiaやAMDはHBMコントローラをGPUダイと分離する「ディスアグリゲーテッド」設計を検討している。
16層スタック(16Hi)
HBM4は最大16層のDRAMダイを積層する。HBM3eの12層(12Hi)からさらに4層追加され、1スタックあたりの容量は最大48GBに達する。
16層積層の技術的な難しさは:
- TSVの精度: 16層分のシリコン貫通ビアを正確に位置合わせする必要がある。ずれが数μmあると電気的接続が不安定になる
- 熱管理: 層が増えるほど中心部に熱がこもる。HBM4では各ダイの厚さを薄くし(約30μm)、熱伝導パスを確保
- 歩留まり: 1層でも不良があるとスタック全体が不良品に。Known Good Die(KGD)テストが極めて重要
ハイブリッドボンディング
HBM4の一部バリアント(HBM4E)では、従来のマイクロバンプに代わりハイブリッドボンディングが導入される見通しだ。銅と絶縁膜を直接接合するこの技術により:
- バンプピッチ: 従来の40μmから9μm以下に縮小
- 接続密度: 約20倍に向上
- 電力損失: バンプ間抵抗が大幅に低下
メーカー3社の競争構図
以下の図は、HBMメーカー3社のシェアと競争状況を示しています。
| 項目 | SK Hynix | Samsung | Micron |
|---|---|---|---|
| HBM3eシェア (2025) | 約53% | 約35% | 約12% |
| HBM4量産開始 | 2026年Q3 | 2026年Q4 | 2027年Q1 |
| 初期スタック構成 | 12Hi/16Hi | 16Hi | 12Hi |
| 主要顧客 | Nvidia, AMD | Nvidia (一部), Google | Nvidia (H200) |
| TSV技術 | MR-MUF (独自) | TC-NCF | 標準リフロー |
| ハイブリッドボンディング | HBM4Eで採用予定 | HBM4Eで採用予定 | 検討中 |
| 製造拠点拡張 | 清州・利川に新棟 | 平沢P4で増産 | 広島工場拡張 |
| 推定HBM4単価 | $100〜120/GB | $90〜110/GB | $95〜115/GB |
SK Hynix——市場リーダーの優位
SK HynixはHBMの初代から市場をリードしてきた。同社独自の**MR-MUF(Mass Reflow Molded Underfill)**技術は、チップ間の接合と封止を一度に行う方式で、歩留まりと信頼性で他社に先行する。
NvidiaのHBM調達の過半数をSK Hynixが担っており、HBM4でもファーストサプライヤーの地位を確保している。2026年のHBM関連売上高は**約150億ドル(約2.25兆円)**に達すると予測されている。
Samsung——巻き返しを図る挑戦者
SamsungはHBM3eの初期段階で歩留まり問題に苦しみ、Nvidiaの認定取得が遅れた。しかし2025年後半に問題を克服し、HBM3eの12Hi製品でNvidiaの承認を取得。HBM4では16Hiスタックを最初から投入する攻めの戦略で、SK Hynixに対するシェア奪還を狙う。
Samsungの強みは、DRAMダイの製造からパッケージングまで一貫して自社内で完結できること。この垂直統合がコスト競争力に繋がる。
Micron——電力効率で差別化
Micronは後発参入ながら、HBM3eで業界最高の電力効率を達成したことで注目を集めた。同社のHBM3e 8Hiは、競合製品比で約30%低い消費電力を実現。この実績をHBM4にも持ち込み、電力効率を武器にシェア拡大を目指す。
また、Micronは日本の広島に大規模なDRAM製造拠点を持ち、日本政府から約3,600億円の補助金を受けている。HBM4の製造ラインも広島工場で構築中だ。
HBM4の需要を牽引するAI GPU
HBM4の最大の需要ドライバーはAI向けGPUだ。主要顧客の計画は:
- Nvidia Rubin(2026年後半): HBM4を6〜8スタック搭載、最大288〜384GBのメモリ容量
- AMD MI400X(2027年): HBM4を8スタック搭載、帯域幅16TB/s超を計画
- Google TPU v7(2027年): 自社設計AI ASICにHBM4を統合
AI学習ワークロードでは、1チップあたり200GB以上のHBMが必要とされるケースが増えている。GPT-4クラスのモデル学習には数千基のGPUが使われ、各GPUにHBM4スタックが複数搭載される。HBMの年間市場規模は2026年に**300億ドル(約4.5兆円)**に達すると予測されている。
HBMの価格動向——AIバブルの恩恵
HBMはDRAM業界で最も利益率の高い製品だ。通常のDDR5の1GBあたり単価が$2〜3であるのに対し、HBM3eは**$40〜60/GB**、HBM4は**$90〜120/GB**と桁違いに高い。
この価格差は:
- 製造の難しさ: 3D積層、TSV加工、KGDテストなど特殊工程が多い
- 需要超過: AI GPU需要がHBMの供給能力を大幅に上回っている
- 寡占市場: 実質3社しか製造できず、競争が限定的
SK Hynixの2025年通期でHBM事業の営業利益率は**約50%**に達したと推定されている。半導体メモリ業界で利益率50%は異例中の異例だ。
日本への影響
Micron広島工場の戦略的重要性
Micronの広島工場は、日本における先端メモリ製造の中核拠点だ。HBM4の製造ライン構築が進めば、日本国内のサプライチェーン(材料、装置、テスト)が活性化する。日本政府が約3,600億円の補助金を投入した背景には、HBMが「経済安全保障上の重要技術」に位置づけられていることがある。
装置・素材メーカーへの恩恵
HBM4の製造に必要な装置・素材で日本企業の存在感は大きい:
- 東京応化工業: TSV用フォトレジスト
- 住友ベークライト: アンダーフィル材料
- ディスコ: ウェハ研削装置(ダイの薄化加工)
- TOWA: モールディング装置
HBM市場の拡大は、これらの日本メーカーに継続的な受注増をもたらす。
クラウドAIコストへの影響
HBMのコストは最終的にクラウドAIサービスの料金に転嫁される。AWSやGoogle CloudのGPUインスタンス料金は、HBM価格の影響を直接受ける。HBM4世代では1GPUあたりのHBMコストが**$5,000〜10,000**に達する可能性があり、これがGPUインスタンスの時間単価に反映される。
ただし、HBM4の帯域幅向上により同じ推論タスクの処理時間が短縮される。帯域幅が1.7倍になれば、メモリバウンドなLLM推論の速度もほぼ比例して向上するため、1リクエストあたりのコストはむしろ下がる可能性がある。
まとめ——HBM4がAIインフラの次を定義する
HBM4は、AI半導体エコシステムの中核を担うメモリ技術だ。帯域幅2TB/s、容量48GB/スタックという仕様は、次世代AI GPUの性能を直接的に規定する。SK Hynix、Samsung、Micronの3社による競争は、技術力と量産能力の両面で熾烈を極めている。
今後のアクションステップ:
- 半導体投資家: SK Hynixの2026年Q3決算でHBM4量産開始の進捗を確認。HBM関連売上の構成比と利益率に注目
- AIインフラエンジニア: HBM4搭載GPUの登場(2026年後半〜2027年)に向けて、メモリバウンドワークロードのベンチマーク準備を開始。帯域幅2倍でどの程度の推論速度向上が得られるかを事前に試算
- 企業のクラウド担当: HBM4世代のGPUインスタンスが登場するまで約1年。現行HBM3e世代のインスタンス(H100/H200)で十分な用途と、HBM4待ちが合理的な用途を見極める
AIの進化はメモリ帯域幅に制約されている。HBM4はその制約を大きく緩和し、次の飛躍を可能にする鍵だ。