AI12分で読める

Mira MuratiのThinking MachinesがNvidiaと大型独占契約

1ギガワット——原子力発電所およそ1基分に相当する電力規模のAIインフラを、創業間もないスタートアップが一気に確保する。元OpenAI CTOのMira Muratiが共同設立したThinking Machines Labが、Nvidiaの次世代チップ「Vera Rubin」を用いたサーバー展開で複数年の戦略的パートナーシップを締結したことが2026年3月10日に発表されました。Nvidiaからは金額非公開ながら「significant investment(大規模出資)」も実施されており、AI業界のパワーバランスを揺るがす契約として注目を集めています。

この取引は単なるGPU調達ではありません。Thinking Machines Labはフロンティアモデルのトレーニングだけでなく、エンタープライズ・研究機関・科学コミュニティ向けにオープンモデルへのアクセスを広げる構想を掲げています。巨大テック企業がAIインフラを囲い込む中で、独立系ラボがこの規模の計算資源を手にすることの意味は非常に大きいと言えるでしょう。

Thinking Machines Lab とは何か

Thinking Machines Labは、2025年にMira Muratiを中心に設立されたAI研究企業です。Muratiは2018年からOpenAIに在籍し、CTOとしてGPT-4やDALL-E、ChatGPTといった主力プロダクトの技術開発を統括してきた人物です。2024年9月にOpenAIを退社し、その後わずか数か月で新たなAIラボを立ち上げました。

Thinking Machines Labが既存のAI企業と異なる点は、そのミッションの方向性にあります。

  • フロンティアモデルの研究開発: 最先端の大規模言語モデル(LLM)や基盤モデルの構築
  • オープンアクセスの重視: 研究機関や科学コミュニティが最先端AIにアクセスできる仕組みの構築
  • インフラからの差別化: Nvidiaアーキテクチャに最適化されたトレーニング・サービングシステムの独自設計

OpenAIが次第に商業的なクローズドモデルに舵を切る中、Muratiが「オープンモデルへのアクセス拡大」を掲げていることは業界内でも意味深い動きとして受け止められています。Claudeを開発するAnthropicや、ChatGPT Plusを提供するOpenAIといった既存プレイヤーとは異なるポジションを目指していると言えます。

Nvidia Vera Rubin チップの全貌

今回の契約の核となるVera Rubinは、Nvidiaが2027年初頭の展開開始を予定している次世代GPUプラットフォームです。現行のBlackwellアーキテクチャ(B200 / GB200)の後継として位置づけられており、AIトレーニング性能の飛躍的な向上が見込まれています。

この図は、NvidiaのGPUアーキテクチャが世代を追うごとにどのように進化してきたか、そしてVera Rubinがどの位置にあるかを示しています。

Nvidia GPU アーキテクチャの進化と Vera Rubin の位置づけ — Ampere から Vera Rubin まで世代ごとに約2〜3倍の性能向上が続いている

Vera Rubinの主な特徴は以下のとおりです。

  • 3nmプロセス採用: TSMCの最先端プロセスを採用し、電力効率を大幅に改善
  • HBM4メモリ搭載: 次世代高帯域メモリにより、大規模モデルのパラメータを効率的にGPUメモリ上に展開
  • FP8演算性能の大幅向上: 推定14,000 TFLOPS以上(Blackwell B200の約1.5倍)
  • NVLink次世代インターコネクト: GPU間通信の帯域幅をさらに拡大し、数千GPU規模のクラスタでのスケーリングを改善

名前の由来は、銀河の回転曲線の観測からダークマターの存在を示唆したアメリカの天文学者ヴェラ・ルービンにちなんでいます。Nvidiaは近年、著名な科学者の名前をGPUアーキテクチャのコードネームに採用する伝統を続けています。

AIラボの計算資源規模比較

1GWという数字がどれほど異例なのかを理解するために、主要AIラボの計算資源規模を比較してみましょう。

AIラボ/企業推定消費電力規模主要GPU/チップ特徴
xAI(Colossus)約0.15GWH100 10万基現時点で世界最大級の単一クラスタ
Meta約0.6GW(計画)H100 / カスタムチップ自社DC拡張中、Llamaモデル用
Microsoft / OpenAI(Stargate)約1.0GW混合(Nvidia / カスタム)1,000億ドル規模の投資計画
Thinking Machines Lab1.0GW以上Vera Rubin(独占)新興ラボとして破格の規模
Google DeepMind約1.5GWTPU v6 / Nvidia混合自社設計TPUが主力
Amazon / Anthropic約2.0GW(計画)Trainium / Nvidia混合Anthropic DCへの巨額投資

以下の図は、各ラボの計算資源規模を視覚的に比較したものです。Thinking Machines Labが新興ラボでありながら、MicrosoftやOpenAIの「Stargate」計画に匹敵するスケールを確保していることがわかります。

主要AIラボの計算資源規模(推定)— Thinking Machines Lab は新興ラボとしては最大級の1GW以上を確保

注目すべきは、Thinking Machines Labが設立から1年余りでこの規模の計算資源にコミットしている点です。MicrosoftやGoogleが数年かけて構築してきたインフラ規模に、パートナーシップという形で一気に肩を並べようとしています。

Nvidia にとっての戦略的意義

この契約はNvidia側から見ても重要な意味を持っています。

第一に、Vera Rubinの大口顧客確保です。次世代チップの量産開始前に1GW規模の確約を得ることは、製造計画の安定化とTSMCへの発注量の裏付けになります。

第二に、カスタムチップへの対抗です。Google(TPU)、Amazon(Trainium)、Meta(MTIAチップ)など、大手テック企業が自社設計のAIチップ開発を加速させる中、Nvidiaは独立系AIラボとの関係強化によって市場シェアの維持を図っています。Google CloudのTPUやAWSのTrainiumといった自社チップが台頭する中、Nvidiaにとってサードパーティラボへのコミットは戦略的に不可欠です。

第三に、エコシステムの拡大です。Thinking Machines Labが「Nvidiaアーキテクチャ向けのトレーニング・サービングシステム設計」にも取り組むと明言しており、CUDAエコシステムの競争力強化にも寄与します。

料金・コスト構造の考察

今回の契約の金銭的詳細は公開されていませんが、市場の参考値から規模感を推測できます。

  • H100サーバーの市場価格: 8GPU構成で約25万ドル(約3,750万円)
  • 1GW規模のデータセンター建設費: 一般的に50億〜100億ドル(約7,500億〜1兆5,000億円)
  • 年間電力コスト: 1GW × 8,760時間 × 0.05ドル/kWh ≒ 約4.4億ドル(約660億円)

Vera Rubinチップ自体の価格は未公表ですが、電力効率の改善を考慮しても、Thinking Machines Labが確保したインフラの総コストは数十億ドル規模に達すると見られます。Nvidiaの「significant investment」がどの程度このコストをカバーするかが今後の注目点です。

日本への影響と示唆

この契約は日本のAI業界にも複数の示唆を与えます。

計算資源の集中リスク

世界のAIインフラが北米の大手企業やラボに集中する傾向が一段と強まっています。日本の研究機関や企業がフロンティアモデルの開発競争に参加するためには、国家レベルでの計算資源戦略が不可欠です。経済産業省が推進するAI基盤整備事業(GENIAC)の予算規模は数百億円程度であり、海外ラボの数兆円規模の投資とは桁が異なります。

Vera Rubin の日本市場への影響

NvidiaのGPUは日本のクラウドプロバイダーやスーパーコンピューティング施設でも広く採用されています。Vera Rubinの供給がThinking Machines Labへの優先供給で逼迫する場合、日本市場への入荷が遅れる可能性があります。ただし、Nvidiaは複数の製造ラインを並行して稼働させるため、一概に供給不足になるとは限りません。

オープンモデルへの期待

Thinking Machines Labが「オープンモデルへのアクセス拡大」を掲げている点は、日本のAI開発者にとって朗報です。MetaのLlamaシリーズのように、強力なオープンモデルが公開されれば、日本語に特化したファインチューニングや産業応用が加速する可能性があります。

まとめ:この契約が意味するもの

Thinking Machines Lab と Nvidia の戦略的パートナーシップは、AI業界の構造変化を象徴する出来事です。以下のアクションステップで今後の展開に備えましょう。

  1. Vera Rubin の動向を追跡する: 2027年初頭の展開開始に向けて、ベンチマーク情報やアーキテクチャの詳細が今後数か月で公開される見込みです。自社のAIインフラ更新計画に反映しましょう。

  2. Thinking Machines Lab のオープンモデルに注目する: 同ラボがどのようなモデルを公開するか、ライセンス条件はどうなるかを継続的にウォッチしましょう。公開されたモデルはGoogle CloudAWS上ですぐに試せる可能性が高いです。

  3. AIチップ市場の競争構図を理解する: Nvidia一強から、各社カスタムチップとの競争激化へ。どのチップアーキテクチャ上で開発するかは、中長期的なロックインリスクに関わる重要な判断です。ClaudeChatGPT Plusなど、すでに利用可能なAIサービスを試しながら、次世代インフラの恩恵を先取りする姿勢が重要です。

  4. 電力・インフラ政策の動向を注視する: 1GW規模のAIインフラは電力政策と不可分です。日本におけるデータセンター誘致や再生可能エネルギー整備の進展が、国内AI産業の競争力を左右します。

この記事をシェア