AI13分で読める

MetaがGoogle TPUを数十億ドルでリース——Nvidia一強に風穴を開ける異例の提携

数十億ドル規模の複数年契約——MetaがGoogleのAI専用チップ「TPU」をリースする異例のディールが2026年2月末に締結されました。SNS最大手とクラウド最大手が「競合」から「インフラパートナー」へと関係を変えるこの提携は、Nvidiaが支配するAIチップ市場に初めて本格的な風穴を開ける可能性を秘めています。

Google Cloud側は、TPUの外部販売を拡大することでNvidiaの年間売上の10%に相当する収益を獲得できると試算しています。AIの学習・推論に不可欠な計算資源をめぐる争いは、チップの「所有」から「利用」へ——いわば**"Intelligence as a Utility"(知能のユーティリティ化)**の時代に入りつつあります。

TPU(Tensor Processing Unit)とは何か

TPUは、Googleが2015年から自社開発しているAI特化型のカスタムチップです。汎用GPU(Graphics Processing Unit)とは異なり、機械学習のワークロード——特に大規模言語モデル(LLM)のトレーニングと推論——に最適化されたアーキテクチャを持っています。

TPUの主な特徴は以下のとおりです。

  1. 行列演算の高速化: AIモデルの学習で多用されるテンソル(多次元行列)演算を、専用のMXU(Matrix Multiply Unit)で高速処理
  2. 大容量HBM搭載: 最新のTPU v5pでは1チップあたり95GBのHBM(High Bandwidth Memory)を搭載し、大規模モデルのパラメータをオンチップに保持可能
  3. ポッド構成によるスケーラビリティ: 数千チップを高速インターコネクトで接続し、単一のスーパーコンピュータとして振る舞う「TPUポッド」構成をサポート
  4. ソフトウェアエコシステム: JAX/TensorFlowとのネイティブ統合により、Google内部で培われた最適化ノウハウがそのまま活用可能

Googleはこれまで、TPUを主に自社サービス(検索、YouTube、Geminiなど)とGoogle Cloudの顧客向けに提供してきました。しかし今回のMeta提携は、TPUを大規模な外部販売チャネルに乗せる戦略転換の象徴です。

なぜMetaはGoogle TPUを選んだのか

Metaが巨額を投じてGoogle TPUを確保する背景には、3つの構造的な課題があります。

1. Nvidia GPU調達の限界

AI学習用GPUの需要は2024年以降爆発的に増加しており、NvidiaのH100/B200シリーズは常に品薄状態です。Metaは2025年だけで推定350億ドル以上をAIインフラに投資していますが、Nvidiaの供給量には物理的な上限があります。Meta、Microsoft、Google、Amazonが同じチップを奪い合う構図では、必要な計算資源を安定的に確保できないリスクが高まっていました。

2. サプライチェーンの多角化

半導体のサプライチェーンは、TSMCの台湾工場への集中、米中の輸出規制、地政学リスクなど、多くの不確実性を抱えています。Nvidiaの1社依存は、供給途絶時のダメージが甚大です。Google TPUという代替ソースを確保することで、Metaはリスクを分散できます。

3. コスト効率の追求

NvidiaのGPUは性能は優れるものの、需要過多によりプレミアム価格が続いています。Google TPUは特定のワークロード(特にTransformerベースのLLM学習)においてNvidia GPUと同等以上のコスト効率を発揮するケースがあり、ワークロードに応じたチップの使い分けが経済合理性に適うと判断されたのです。

この図は、AIチップ市場の主要プレイヤーとその供給関係を示しています。

AIチップ市場の勢力図 - Nvidia・Google TPU・AMD/カスタムチップとMetaの供給関係を示す構成図

Metaは従来のNvidia依存から脱却し、Google TPUとAMD/カスタムチップを組み合わせた多角化戦略に舵を切っています。

ディールの構造: 物理ラックではなく「計算スループット」を借りる

今回のディールで特に注目すべきは、その契約形態です。Metaが借りるのは物理的なサーバーラックではなく、保証された計算スループット(guaranteed compute throughput)です。

この仕組みは以下のように機能します。

  • アクセス方式: Google Cloud経由でTPUクラスタにアクセスし、一定量の計算処理能力を複数年にわたって確保
  • 柔軟なスケーリング: 学習ジョブの規模に応じて、TPUポッドの構成を動的に調整可能
  • SLA保証: 一定の稼働率と計算スループットがSLA(Service Level Agreement)で保証される
  • 将来の直接購入: MetaはTPUを自社データセンターに直接購入・設置する交渉も並行して進めており、2027年以降に実現する可能性がある

つまり、MetaはGoogleのインフラ上で「知能を生成する能力」をユーティリティとして消費する形です。これは、電力を自家発電ではなく電力会社から購入するモデルに近く、AI業界で**"Intelligence as a Utility"**と呼ばれる新しいパラダイムです。

Nvidia GPU vs Google TPU: 比較表

AIチップの選択は、ワークロードの種類・規模・予算によって最適解が異なります。

項目Nvidia B200 (Blackwell)Google TPU v5p
アーキテクチャ汎用GPU(CUDA互換)AI特化ASIC
メモリHBM3e 192GBHBM2e 95GB
主な用途学習 + 推論 + HPC学習 + 推論(Transformer最適)
ソフトウェアCUDA / PyTorch / TensorFlowJAX / TensorFlow / PyTorch(一部)
エコシステム最大(業界標準)Google Cloud限定
供給状況慢性的な品薄Google Cloud経由で確保可能
コスト効率(LLM学習)高性能だが単価高特定ワークロードで優位
スケーラビリティDGX SuperPOD(数百〜数千GPU)TPUポッド(最大数千チップ)
調達リスクTSMC集中 / 需要過多Google自社管理で比較的安定

注目すべきは、エコシステムの広さではNvidiaが圧倒的に優位である一方、供給の安定性特定ワークロードのコスト効率ではTPUに優位性がある点です。Metaのような超大規模ユーザーにとっては、両方を使い分ける「マルチチップ戦略」が合理的な選択肢になります。

"Intelligence as a Utility" の時代

今回のMeta×Googleの提携は、AIチップ市場の構造変化を象徴する出来事です。従来のモデルでは、テック企業はGPUを「購入」して自社データセンターに設置し、自前で運用していました。しかし、AIモデルの規模が指数関数的に拡大するなか、すべてを自社で賄う方式には限界が見えています。

新しいモデルでは、計算能力そのものをサービスとして調達します。これは以下の変化を意味します。

  • 所有から利用へ: チップの購入・運用コストをOpEx(運用費)化し、需要に応じた柔軟な投資が可能に
  • 競合がインフラパートナーに: GoogleとMetaはSNS・AI分野で競合関係にありますが、インフラレイヤーでは協業するという新しい関係性が生まれている
  • チップ市場の多極化: Nvidia一強だった市場に、Google TPU、AMD MI300X、Amazon Trainium、Microsoft Maiaなど複数のプレイヤーが参入し、選択肢が広がる

以下の図は、AI Compute市場のシェアが今後どのように推移するかの予測を示しています。

AI Compute市場シェア予測 - 2025年から2028年にかけてGoogle TPUのシェアが拡大する見通し

Google Cloudは、TPU外部販売の拡大により**Nvidiaの年間売上(約600億ドル超)の10%**を取り込むことを目標としています。これが実現すれば、年間60億ドル以上の追加収益となり、Google CloudのAIインフラ事業は大きく成長します。

日本への影響

この提携は、日本のテック業界にも複数の影響を及ぼす可能性があります。

日本企業のAIインフラ戦略への示唆

日本の大手企業(NTT、ソフトバンク、NEC、富士通など)もAIインフラへの投資を加速させていますが、多くがNvidia GPUに依存しています。Metaのようなマルチチップアプローチはまだ一般的ではありませんが、今回のディールを契機に、Google TPUやAMDチップを組み合わせた分散調達を検討する動きが出てくるでしょう。

Google Cloud東京リージョンでのTPU提供

Google Cloudは東京リージョン(asia-northeast1)でのTPU提供を段階的に拡大しています。日本国内でTPUを利用できる環境が整えば、レイテンシの低いAI推論サービスや、データ主権を考慮した国内学習環境の構築が容易になります。

半導体サプライチェーンへの波及

日本は半導体製造装置(東京エレクトロン、SCREEN、ディスコなど)や材料(信越化学、SUMCOなど)で世界的なシェアを持っています。Google TPUの需要拡大は、これらの日本企業にとって新たな受注機会を意味します。特にHBMの需要増は、後工程装置メーカーにとって追い風です。

日本円換算での規模感

今回のディールの具体的な金額は非公開ですが、「数十億ドル(multibillion-dollar)」という表現から最低でも2,000〜5,000億円規模と推定されます。これは、日本の主要クラウド事業者の年間設備投資額に匹敵する規模であり、AIインフラ投資のスケール感がいかに大きいかを物語っています。

まとめ

MetaとGoogleのTPUリース契約は、AIチップ市場のパラダイムシフトを示す重要なマイルストーンです。以下のアクションステップを参考にしてください。

  1. 自社のAIインフラ戦略を見直す: Nvidia GPU一択ではなく、Google Cloud TPUやAMDチップを含めたマルチチップ戦略を検討する。特にTransformerベースのLLM学習には、TPUのコスト効率を比較評価する価値がある
  2. "Intelligence as a Utility" モデルを理解する: AIチップの所有から利用へのシフトを踏まえ、CapEx(設備投資)とOpEx(運用費)のバランスを再考する。Google CloudのTPU on-demand/reservedプランの料金体系を確認しておく
  3. サプライチェーンリスクを定量化する: Nvidia依存度が高い場合、供給途絶時の事業影響を試算し、代替調達先のリストアップと概算見積りを準備しておく

AIの計算資源は、もはや「持つもの」ではなく「使うもの」になりつつあります。この潮流を先取りできる企業が、次のAI競争で優位に立つことになるでしょう。

この記事をシェア