NvidiaがH200の対中輸出を再開——10カ月の凍結解除で最大100万基出荷へ
2026年3月17日、サンノゼで開催されたGTC 2026の基調講演で、NvidiaのCEOジェンスン・ファン(Jensen Huang)が会場を沸かせる一言を放った。「H200は中国の多くの顧客に対してライセンスが下り、すでに多くの購入注文を受けている(been licensed for many customers in China for H200, received purchase orders from many customers)」。さらにファンは「これは皆さんにとって新しいニュースだ。2週間前、3週間前とは状況が変わった(That's new news for all of you, and it's different than it was two weeks ago or three weeks ago)」と付け加えた。
この発言が意味するのは、約10カ月にわたって凍結されていたNvidiaの先端AIチップの中国向け供給が正式に再開されるということだ。出荷総数は最大100万基に達する可能性があるとされ、米中AI半導体競争の構図を大きく塗り替える転換点となった。
何が変わったのか——米中チップ規制の時系列
米国の対中半導体輸出規制は、2022年10月のバイデン政権による初の規制発動から始まった。この時点でNvidiaのA100およびH100の対中輸出が事実上禁止された。Nvidiaは規制をかいくぐるため、性能を抑えたA800やH800といった「中国専用」チップを設計・出荷したが、2023年10月の規制強化(第2弾)でこれらの抜け穴も封じられた。
その後、NvidiaはH200の中国向け輸出ライセンスを申請していたものの、2025年半ばから出荷が完全に凍結された。中国市場はNvidiaにとってかつてデータセンター売上の20〜25%を占める重要市場だったが、凍結期間中はその比率が一桁台にまで落ち込んだとされる。
転機が訪れたのは2026年初頭だ。トランプ政権の通商政策チームが対中半導体輸出の部分的緩和を検討し始め、3月にはH200の限定的な輸出が正式に認可された。ファンのGTC発言は、この認可を受けての公式アナウンスだった。
H200とは何か——Hopper世代のAI推論チップ
NvidiaのH200は、HopperアーキテクチャをベースとしたAIアクセラレータだ。H100の後継モデルに位置付けられ、最大の特徴はメモリに**HBM3e(High Bandwidth Memory 3e)**を採用した点にある。
H200の主要スペック
- アーキテクチャ: Hopper(H100と同一のGPUダイ)
- メモリ: HBM3e 141GB(帯域幅 4.8TB/s)
- 用途: 大規模言語モデル(LLM)の推論処理に最適化
- 消費電力: TDP 700W
- 製造プロセス: TSMC 4nm
H100との最大の違いはメモリだ。H100がHBM3の80GBを搭載するのに対し、H200はHBM3eの141GBを搭載する。メモリ容量が約1.76倍、帯域幅が約1.4倍に向上したことで、大規模モデルの推論時にメモリがボトルネックになりにくい。特にGPT-4クラスのモデルをリアルタイムで推論する場合、H200はH100比で最大1.6〜1.9倍のスループットを実現するとNvidiaは主張している。
重要なのは、H200は推論に特化した設計である点だ。最先端のモデル学習にはBlackwellアーキテクチャのB100/B200が必要だが、すでに学習済みのモデルを本番環境で動かす推論処理においては、H200は依然としてコストパフォーマンスに優れた選択肢となる。中国のAI企業にとって、モデルの学習は国内チップで行い、推論インフラにはH200を使うという「ハイブリッド戦略」が現実味を帯びる。
以下の図は、2022年から2026年にかけての米国対中半導体輸出規制の主要イベントをタイムラインで整理したものです。
この図が示すように、約3年半にわたって段階的に強化されてきた規制が、2026年3月に初めて明確な「緩和」方向に動いたことの意義は極めて大きい。
輸出条件の詳細——25%関税と出荷上限
H200の対中輸出再開は「無条件」ではない。米国政府は以下の厳格な条件を設定している。
主要な輸出条件
- 25%の関税: H200の中国向け出荷には25%の輸入関税が課される。H200の推定単価は約$25,000〜$30,000であるため、関税込みでは1基あたり約$31,000〜$37,500(日本円で約465万〜563万円)に跳ね上がる
- 米国政府による検査: 出荷前に米国当局の検査(エンドユーザー確認含む)を通過する必要がある
- 顧客別上限の検討: 当局は1社あたりの購入上限を75,000基に設定することを検討中
- 総出荷上限: 全体の出荷総数は最大100万基(1 million processors)が上限とされる
75,000基の顧客別上限が適用された場合、中国の大手クラウド企業(Alibaba Cloud、Tencent Cloud、Baidu Cloudなど)は各社の調達計画を大幅に見直す必要がある。データセンター1拠点あたり数万基のGPUが必要な大規模AIインフラにおいて、75,000基は「あれば助かるが、十分ではない」規模だ。
チップ性能比較——H200 vs 競合チップ
H200の輸出再開により、中国市場では国産チップとの直接競合が再び始まる。以下の表は主要チップの性能を比較したものだ。
| 項目 | Nvidia H200 | Nvidia H100 | Nvidia A100 | Huawei Ascend 910B |
|---|---|---|---|---|
| アーキテクチャ | Hopper | Hopper | Ampere | Da Vinci |
| メモリ | HBM3e 141GB | HBM3 80GB | HBM2e 80GB | HBM2e 64GB |
| メモリ帯域 | 4.8TB/s | 3.35TB/s | 2.0TB/s | 1.4TB/s |
| FP16性能 | 989 TFLOPS | 989 TFLOPS | 312 TFLOPS | 320 TFLOPS |
| 推論スループット(LLM) | 基準×1.9 | 基準×1.0 | 基準×0.4 | 基準×0.3(推定) |
| 推定単価 | $25,000〜$30,000 | $25,000〜$35,000 | $10,000〜$15,000 | $8,000〜$12,000(推定) |
| 中国での入手性 | 再開(条件付き) | 輸出禁止 | 輸出禁止 | 国内生産(制限なし) |
注目すべきは、Huawei Ascend 910BはFP16のカタログスペックではA100に匹敵するものの、ソフトウェアエコシステムの成熟度がNvidiaのCUDAに遠く及ばない点だ。CUDAは15年以上の蓄積があり、PyTorch・TensorFlow・JAXなど主要MLフレームワークとの統合が深い。HuaweiのMindSporeフレームワークは急速に改善しているものの、開発者コミュニティの規模とライブラリの充実度では依然として大きな差がある。
中国AI市場への影響——DeepSeek、Baidu、Alibaba
H200の輸出再開は、中国のAIエコシステムに複数の波及効果をもたらす。
推論コストの劇的な低下
最も直接的な影響は、AI推論コストの低下だ。中国企業はこれまでHuawei Ascend 910Bや旧世代のA100(規制前に備蓄したもの)を使って推論インフラを構築していたが、H200の導入によりスループットが大幅に向上する。特にDeepSeekのような推論効率を重視するスタートアップにとっては、H200はAPI提供コストを半分以下に削減しうる武器になる。
国産チップ開発への複雑な影響
H200の流入は、Huaweiを筆頭とする中国国産チップの開発戦略に複雑な影響を与える。短期的にはH200の圧倒的なコストパフォーマンスにより、Ascend 910Bの採用モチベーションが低下する。しかし中長期的には、100万基という上限と75,000基の顧客別キャップが存在する以上、中国企業が国産チップへの投資を止めることは考えにくい。むしろ「推論はH200、学習は国産チップ」という棲み分けが進む可能性が高い。
主要プレイヤーの動向
- DeepSeek: 推論効率で世界トップクラスの実績を持つ。H200導入でAPI価格をさらに引き下げ、OpenAIとの価格競争力を強化する見込み
- Baidu(百度): 自社LLM「ERNIE」の推論基盤をH200で刷新し、検索・広告ビジネスのAI化を加速
- Alibaba Cloud(阿里雲): クラウドAIサービスの推論レイヤーをH200に置き換え、価格競争力を強化
- ByteDance(字節跳動): TikTokのレコメンデーションエンジンやDoubao(豆包)のLLM推論にH200を活用
以下の図は、Nvidiaの中国向け売上高の推移と、H200輸出再開後の回復見通しを示しています。
この図が示すように、規制・凍結期間中にNvidiaの中国売上は4分の1以下に縮小したが、H200の出荷再開により段階的な回復が見込まれる。ただし25%関税と出荷上限があるため、規制前のピークに戻るのは困難と見られている。
日本の半導体戦略への示唆
H200の対中輸出再開は、日本の半導体戦略にも重要な示唆を与える。
製造装置メーカーへの影響
日本の半導体製造装置メーカー(東京エレクトロン、アドバンテスト、SCREENなど)は、米国の対中規制に歩調を合わせて中国向け出荷を制限してきた。NvidiaのH200輸出再開が米国の対中姿勢の軟化を示すシグナルだとすれば、製造装置の対中輸出規制も段階的に緩和される可能性がある。特に東京エレクトロンは中国売上比率が高く(2024年度で約40%)、規制緩和は株価にとってもポジティブ材料だ。
Rapidusとの関係
日本政府が支援する先端半導体ファウンドリRapidusは、2027年の2nm量産開始を目指している。米中の半導体デカップリングが進む中、日本は「信頼できるサプライチェーン」の一角として位置付けられてきた。しかし、米国が対中輸出を部分的に再開するということは、完全なデカップリングではなく「管理された競争」へとシフトしている可能性を示す。Rapidusの戦略的重要性は変わらないが、日本企業は米中の動向を注視しつつ、柔軟な事業戦略を構築する必要がある。
日本のAI企業にとっての機会
NvidiaがH200の中国向け出荷を優先する場合、グローバルなGPU供給の逼迫が再び起こる可能性がある。日本のAI企業やデータセンター事業者(さくらインターネット、NTTデータ、ソフトバンクなど)は、GPU調達の確保を今のうちに進めておくべきだろう。特にさくらインターネットが整備を進める「GPUクラウド」は、日本国内のAI推論需要を取り込む好機となる。
まとめ——3つのポイント
NvidiaのH200対中輸出再開は、米中AI半導体競争における大きな転換点だ。以下の3点を押さえておきたい。
- 10カ月ぶりの凍結解除: GTC 2026でジェンスン・ファンが発表。H200は中国の多くの顧客に対してライセンスが下り、最大100万基の出荷が見込まれる。ただし25%関税と1社あたり75,000基の上限が検討されており、無制限の供給ではない
- 中国AI市場への大きなインパクト: DeepSeek、Baidu、Alibaba等がH200を推論インフラに導入することで、AIサービスのコストが劇的に低下する。一方、Huawei Ascendなど国産チップの開発は中長期的には止まらない
- 日本企業は注視が必要: 製造装置メーカーの対中輸出規制緩和の可能性、GPU供給逼迫リスク、そしてRapidusの戦略的ポジションの再評価が求められる。GPUクラウドの国内整備を急ぐべきタイミングだ
米中AI半導体競争は「完全な遮断」から「管理された競争」へとフェーズが移りつつある。この流れが今後も続くのか、それとも政治情勢の変化で再び凍結されるのか。引き続きウォッチしていく価値のあるテーマだ。