AI15分で読める

GTC 2026でVera Rubin降臨——336Bトランジスタの次世代GPU

336Bトランジスタ、GPUあたりHBM4メモリ288GB、TSMCの3nmプロセスによるデュアルダイ設計——。2026年3月16日、サンノゼで開幕したGTC 2026のキーノートで、NvidiaのCEO Jensen Huangが次世代AIコンピュートプラットフォーム「Vera Rubin」を正式に発表しました。Blackwell世代の208Bトランジスタから1.6倍という圧倒的なスケールアップに加え、エンタープライズ向けAIエージェントプラットフォーム「NemoClaw」、ヒューマノイドロボット向けモデル「Isaac GR00T N1.6」など、AIの未来を形作る複数の発表が矢継ぎ早に行われました。

GTC 2026は3月16日から19日まで4日間にわたって開催され、後半2日間はPhysical AI Daysとしてロボティクス・自動運転・産業AIに特化したセッションが予定されています。

Vera Rubinとは何か——次世代AIコンピュートの全貌

Vera Rubinは、Nvidiaが「次の10年のAIインフラ」と位置づける次世代GPUアーキテクチャです。名前の由来は、暗黒物質の存在を観測的に立証したアメリカの天文学者ヴェラ・ルービンから。宇宙の見えない構造を解き明かした科学者にちなんだ名称は、AIが解くべき未知の問題の大きさを象徴しています。

アーキテクチャの核心

Vera Rubinの最大の特徴は、GPU単体の性能向上とシステムレベルの統合を同時に実現した点にあります。

GPU単体のスペック:

  • トランジスタ数: 336B(3,360億)——Blackwell B200の208Bから約1.6倍増
  • 製造プロセス: TSMCの3nmノード
  • ダイ設計: デュアルダイ構成(2つのダイを1パッケージに統合)
  • HBM4メモリ: GPUあたり288GB搭載——B200の192GBから50%増

NVL72ラック構成:

  • 72基のRubin GPUと36基のVera CPUを1ラックに統合
  • NVLink 6インターコネクトで全GPU間を高速接続
  • ラック全体で約20TBのHBM4メモリプール
  • 72 GPUを「単一の巨大GPU」のように扱える統合メモリ空間

以下の図は、Vera Rubin NVL72ラックの内部アーキテクチャ構成を示しています。

Vera Rubin NVL72ラックのアーキテクチャ構成図——72 Rubin GPU、36 Vera CPU、HBM4メモリ288GB/GPU、NVLink 6インターコネクトの接続関係

Vera CPUはARMベースのカスタムプロセッサで、NVLink-C2Cインターフェースを介してRubin GPUと直結します。従来のPCIe経由の接続と異なり、CPU-GPU間のデータ転送ボトルネックが大幅に削減されるため、大規模言語モデルの学習や推論において、データ前処理とGPU演算のパイプラインがより効率的に動作します。

Blackwellからの進化ポイント

Blackwell B200からVera Rubinへの進化は、単なるスペックの積み増しではありません。

  1. HBM4への移行: HBM3eからHBM4への世代交代により、メモリ帯域幅が大幅に向上。288GBという容量は、1兆パラメータ規模のモデルをより少ないGPU数でホストすることを可能にします
  2. 3nmプロセス: Blackwellの4nmから3nmへの微細化により、同じ消費電力でより多くの演算ユニットを搭載可能に
  3. デュアルダイの洗練: Blackwellで初導入されたデュアルダイ設計をさらに最適化。ダイ間通信の帯域幅と低レイテンシ接続が改善されています

世代別GPU性能比較

以下の図は、Hopper H100、Blackwell B200、Vera Rubinの主要スペックを比較したものです。

Nvidia GPU世代別性能比較チャート——トランジスタ数・HBMメモリ容量・FP8演算性能でHopper、Blackwell、Vera Rubinの3世代を比較

3世代を通じて、トランジスタ数は80B→208B→336B、HBMメモリは80GB→192GB→288GBと、いずれも急激な成長曲線を描いています。特にFP8演算性能は推定で約14PFLOPSに達し、H100の3.96PFLOPSから約3.5倍の向上となります。

競合GPU・アクセラレータとの比較

Vera Rubinの競争力を、現行および次世代の主要アクセラレータと比較します。

項目Vera RubinBlackwell B200AMD MI400XIntel Gaudi 3
トランジスタ数336B208B非公開非公開
製造プロセスTSMC 3nmTSMC 4nmTSMC 3nmTSMC 5nm
ダイ構成デュアルダイデュアルダイマルチチップレットモノリシック
HBMメモリ288GB (HBM4)192GB (HBM3e)256GB (HBM4)128GB (HBM3e)
メモリ帯域未公表8.0TB/s8.0TB/s3.7TB/s
FP8演算~14 PFLOPS(推定)9.0 PFLOPS~10 PFLOPS(推定)1.8 PFLOPS
ラック構成NVL72 (72 GPU)NVL72 (72 GPU)OAM 8-wayOAM 8-way
主要顧客AWS/GCP/Azure/OCI同左Microsoft/MetaDell/Lenovo
出荷時期2026年後半2025年(出荷中)2026年後半2025年(出荷中)

AMDのMI400Xも同じTSMC 3nmを採用しHBM4を搭載する強力な競合ですが、Nvidiaはソフトウェアエコシステム(CUDA、TensorRT、Triton Inference Server)の圧倒的な蓄積で差別化しています。Intel Gaudi 3はコストパフォーマンスに優れるものの、絶対性能ではVera Rubinに大きく差をつけられています。

NemoClaw——エンタープライズAIエージェントの新標準

GTC 2026のもうひとつの目玉が、エンタープライズ向けオープンソースAIエージェントプラットフォーム「NemoClaw」です。

NemoClawの特徴

NemoClawは、企業がAIエージェントを安全かつ効率的に構築・運用するためのフレームワークで、以下の特徴を持ちます。

  • オープンソース: コードが公開されており、企業は自社環境にカスタマイズして導入可能
  • セキュリティ・プライバシーツール内蔵: エンタープライズ利用に不可欠な監査ログ、アクセス制御、データ暗号化機能を標準装備
  • ハードウェア非依存: Nvidia GPU以外の環境でも動作可能。AMD GPUやCPUのみの環境でもデプロイできる設計
  • マルチエージェント対応: 複数のAIエージェントを協調させるオーケストレーション機能を搭載

提供形態と料金

NemoClawはオープンソースとして無料で利用可能です。ただし、エンタープライズサポートとして以下のオプションが用意されています。

  • NemoClaw Community(無料): オープンソース版。GitHub上で公開され、コミュニティサポート
  • NemoClaw Enterprise: Nvidiaによる有償サポート付き。SLA保証、セキュリティパッチの優先配信、カスタムインテグレーション支援を含む。料金は個別見積もり(Nvidia AI Enterprise ライセンスの一部として提供される見込み)
  • DGX Cloud経由: Nvidia DGX Cloudのマネージドサービスとして利用する場合、インフラ費用に含まれる

ハードウェア非依存というアプローチは、Nvidiaにとって一見すると自社GPU売上を毀損するリスクがあります。しかし実際には、NemoClawで構築されたAIエージェントの推論ワークロードが増えるほど、高性能GPUの需要が拡大するという戦略的な計算が働いています。

Thinking Machines Labとの大型パートナーシップ

Jensen Huangはキーノートで、Thinking Machines Labとの複数年にわたるパートナーシップも発表しました。このパートナーシップでは、1GW以上のVera Rubinシステムの導入が計画されています。

1GWという規模は、一般的な原子力発電所1基分の出力に相当します。これだけの電力を消費するAIインフラの構築は、データセンターの電力供給、冷却システム、立地選定のすべてにおいて前例のないスケールの挑戦となります。

Isaac GR00T N1.6とPhysical AI Days

もうひとつの注目発表が、ヒューマノイドロボット向けの「Isaac GR00T N1.6」です。これはvision-language-action(VLA)モデルと呼ばれる新しいカテゴリのAIモデルで、以下の3つの能力を統合しています。

  1. Vision(視覚): カメラ映像からの環境認識
  2. Language(言語): 自然言語による指示の理解
  3. Action(行動): 物理的な動作の計画と実行

「箱をテーブルの上に置いて」と言語で指示するだけで、ロボットが視覚情報を使って箱の位置を認識し、適切な動作シーケンスを自律的に生成するという、従来は別々に開発されていた3つの機能を1つのモデルで実現します。

GTC後半の2日間はPhysical AI Daysとして、ロボティクス、自動運転、産業AIに特化したセッションが組まれています。NvidiaがAIの応用先を「ソフトウェアの中」から「物理世界」へと本格的に拡張する意思を明確にしたプログラム構成です。

Vera Ultra——2027年のロードマップ

Jensen Huangは、2027年後半に「Vera Ultra」を投入するロードマップも明らかにしました。詳細なスペックは未公開ですが、Vera Rubinをさらに上回る演算性能と、次世代NVLinkによるラック間接続の拡張が予想されています。

NvidiaのGPUロードマップは、Hopper(2022年)→ Blackwell(2024年)→ Vera Rubin(2026年)→ Vera Ultra(2027年)と、近年は約1年おきに新世代を投入するペースに加速しています。これは「ムーアの法則の限界」が語られる半導体業界において、パッケージング技術やチップレット設計による性能向上の余地がまだ大きいことを示しています。

日本ではどうなるか

データセンター投資の加速

日本政府は2025年度から「AIインフラ整備加速プログラム」を推進しており、国内データセンターへの投資が急拡大しています。Vera Rubinの登場は、この流れをさらに加速させるでしょう。

さくらインターネットは、石狩データセンターでNvidia GPUを大規模に導入するプロジェクトを進行中です。現在はBlackwell世代のGPUクラスタを構築していますが、Vera Rubinの出荷開始後は次期拡張フェーズでの採用が有力視されます。

ソフトバンクも、2025年に発表した国内AIデータセンター構想でNvidiaとの緊密な連携を打ち出しており、Vera Rubinの初期導入パートナーとなる可能性があります。

NemoClawと日本企業

NemoClawのオープンソース・ハードウェア非依存というアプローチは、日本企業にとって特にメリットが大きいと考えられます。

  • 既存インフラの活用: AMD GPUやCPUベースのサーバーを運用している企業も、NemoClawを導入してAIエージェント基盤を構築可能
  • オンプレミス要件への対応: 金融機関や官公庁など、クラウドに機密データを出せない組織でも、自社データセンター内にNemoClawを展開できる
  • セキュリティ標準の内蔵: 日本の個人情報保護法やISMAP(政府情報システムのためのセキュリティ評価制度)への適合がしやすい設計

電力問題

ただし、1GW級のAIインフラ構築には、日本の電力事情という大きなハードルがあります。原子力発電所の再稼働やデータセンター向け再生可能エネルギーの確保が、Vera Rubinクラスのシステム導入の前提条件となります。北海道や九州など、電力供給に余裕のある地域でのデータセンター誘致が今後さらに活発化するでしょう。

まとめ——GTC 2026後にとるべきアクション

GTC 2026のキーノートは、AIインフラの「次の章」がどのように展開されるかを明確に示しました。Vera Rubinの336Bトランジスタ、HBM4 288GB、NVL72ラック構成は、現行Blackwellからの大幅な性能飛躍を約束しています。同時に、NemoClawはAIエージェントの民主化を推し進め、ハードウェアに依存しないエンタープライズAI基盤を提供します。

今後のアクションとして、以下の3つを推奨します。

  1. Vera Rubinの評価計画を策定する: AWS、Google Cloud、Microsoft、Oracle Cloudが初期デプロイパートナーとなっているため、これらのクラウドプロバイダーの早期アクセスプログラムへの参加を検討しましょう。特に大規模モデルの学習や推論を行っている組織は、NVL72ラックの性能を自社ワークロードで検証する準備を始めるべきです

  2. NemoClawを試す: オープンソースとして公開されるNemoClawを自社環境にデプロイし、AIエージェントの構築を実験しましょう。ハードウェア非依存のため、まずは既存のサーバー環境で小規模に始め、効果を確認してからスケールアウトするアプローチが現実的です

  3. 2027年のVera Ultraを見据えた中期計画を立てる: Nvidiaの約1年おきのGPU世代交代サイクルを踏まえ、インフラ投資の中期計画にVera Ultraの登場を織り込みましょう。データセンターの電力・冷却キャパシティの拡張計画や、GPUリース契約の更新タイミングをVera Ultraのリリース時期に合わせることで、最新世代への移行をスムーズに進められます

この記事をシェア