ビジネス15分で読める

液冷がAIデータセンターの標準に——GPU消費電力1400W時代の冷却革命

AIデータセンターへの設備投資額が6,500億ドル(約97.5兆円)規模に達するなか、最も深刻なボトルネックとして浮上しているのが「冷却」だ。NvidiaのGPU消費電力はH100の700WからB200の1,000W、そして次世代Vera Rubinでは1,400W超に達する見込みであり、従来の空冷(エアクーリング)では物理的に冷やしきれない領域に突入している。

液体冷却(リキッドクーリング)は、もはやハイパースケーラー向けの実験的技術ではない。2026年現在、新規に建設されるAI特化型データセンターの過半数が液冷設備を標準装備する設計となっている。冷却技術スタートアップのFrore Systemsが1億4,300万ドルの資金調達でユニコーン入りしたニュースは、この分野への投資家の関心の高さを象徴している。

この記事では、なぜ液冷がAIインフラの標準になりつつあるのか、主要な冷却方式の違い、そして日本のデータセンター市場への影響を詳しく解説する。

なぜ空冷では足りなくなったのか

GPU消費電力の爆発的増加

AIワークロードの中核を担うGPUの消費電力(TDP: Thermal Design Power)は、わずか数年で劇的に増加している。

以下の図は、Nvidia GPUの世代ごとの消費電力推移を示しています。700Wを超えるあたりから空冷では物理的な冷却限界に達することがわかります。

GPU世代別の消費電力推移を示す棒グラフ。A100の300WからVera Rubinの1400W超まで急激に増加し、700W付近に空冷の限界ラインが引かれている

GPU世代発売年TDP冷却要件
A1002020年300W空冷で十分
H1002022年700W空冷の上限付近
B2002024年1,000W液冷推奨
Vera Rubin2026年1,400W+液冷必須

A100からVera Rubinまでの6年間で、1チップあたりの消費電力は約4.7倍に跳ね上がった。さらに、AIトレーニングではこれらのGPUを数千〜数万枚単位でクラスタ化して使用するため、ラックあたりの発熱密度は従来のサーバーの10倍以上に達する。

空冷の物理的限界

空気は熱伝導率が非常に低い媒体だ。水と比較すると、空気の熱伝達能力は約25分の1しかない。ラックあたりの電力密度が30〜40kWを超えると、いくらファンの風量を増やしても効率的な冷却は不可能になる。

空冷の限界は具体的に以下の問題として現れる。

  • 冷却に使う電力が増大: 空冷で高発熱GPUを冷やそうとすると、大型ファンやCRAC(Computer Room Air Conditioning)ユニットの電力消費が膨大になり、PUE(Power Usage Effectiveness)が1.4〜1.5まで悪化する
  • ホットスポットの発生: 均一な冷却が困難になり、チップの一部が過熱してスロットリング(性能低下)が発生する
  • 設置密度の制約: 十分な空気の流路を確保する必要があるため、ラック間の間隔を広く取らねばならず、データセンターの床面積あたりの計算能力が低下する
  • 騒音問題: 大量のファンが高回転で動作するため、騒音レベルが作業環境の基準を超える場合がある

液体冷却の主要方式

液冷には大きく分けて2つのアプローチがある。「ダイレクト・トゥ・チップ液冷(DLC)」と「浸漬冷却(イマージョンクーリング)」だ。

ダイレクト・トゥ・チップ液冷(DLC)

コールドプレートと呼ばれる金属製の熱交換器をGPUチップに直接取り付け、内部を流れる冷却液(通常は水またはプロピレングリコール混合液)で熱を除去する方式だ。

メリット:

  • 既存のサーバーラックに後付け可能なケースが多い
  • 空冷との併用(ハイブリッド構成)が可能
  • 導入コストが比較的抑えられる
  • CoolIT SystemsやVertivなど、成熟したサプライチェーンが存在する

デメリット:

  • 配管の漏水リスク管理が必要
  • サーバー筐体ごとに接続が必要で、メンテナンス時のダウンタイムが発生しうる

DLCは現在最も普及が進んでいる液冷方式であり、Nvidia自身もB200以降のリファレンス設計でDLC対応を標準化している。

浸漬冷却(イマージョンクーリング)

サーバーボード全体を非導電性の冷却液(フッ素系不活性液体など)に浸す方式だ。チップだけでなく、メモリやVRM(電圧レギュレータ)など発熱するすべてのコンポーネントを同時に冷却できる。

メリット:

  • 冷却効率が最も高く、PUEを1.02〜1.10まで低減可能
  • ファンが不要になるため、消費電力を大幅に削減
  • チップ寿命の延長(温度変動が少ないため)
  • 完全密閉により粉塵や湿度の影響を排除

デメリット:

  • 冷却液のコストが高い(フッ素系液体は1リットルあたり数千円〜数万円)
  • 既存のデータセンターからの移行には設備の大規模改修が必要
  • ハードウェアの保守・交換時に冷却液の排出・補充が必要

GRC(Green Revolution Cooling)やLiquidCool Solutionsが浸漬冷却の分野をリードしており、Microsoft、Google、Metaなどのハイパースケーラーが実証実験から本番環境への移行を進めている。

冷却方式の詳細比較

以下の図は、3つの冷却方式(空冷・DLC・浸漬冷却)の主要指標を比較しています。

データセンター冷却方式比較表。空冷・ダイレクト液冷・浸漬冷却の対応TDP、PUE、導入コスト、運用コスト、主要ベンダーを一覧で比較

注目すべき主要プレイヤー

Vertiv — データセンターインフラの巨人

Vertivはデータセンターの電源・冷却・管理ソリューションを手がける米国企業で、時価総額は約400億ドルに達する。同社のCoolant Distribution Unit(CDU)は、NvidiaのDGXシステム向けの標準冷却ソリューションとして採用されており、液冷市場において圧倒的なシェアを持つ。2025年の決算では液冷関連の受注が前年比3倍以上に増加したと報告している。

CoolIT Systems — DLCのパイオニア

カナダ発のCoolIT Systemsは、ダイレクト・トゥ・チップ液冷に特化した企業だ。同社はデータセンター向けDLCソリューションで世界シェア1位を誇り、累計200万台以上のDLCノードを出荷している。MicrosoftやMetaのAIクラスタにも同社の技術が採用されている。

GRC(Green Revolution Cooling)— 浸漬冷却のリーダー

テキサス州に拠点を置くGRCは、シングルフェーズ浸漬冷却(液体が沸騰しない方式)のリーディングカンパニーだ。同社のICEraQシリーズは、従来の空冷データセンターと比較してPUEを最大95%改善できると主張している。

Frore Systems — ソリッドステート冷却の革新者

2021年創業のFrore Systemsは、可動部品のないソリッドステート冷却チップ「AirJet」を開発している。2026年3月に1億4,300万ドルの資金調達を完了し、評価額10億ドル以上のユニコーン企業となった。従来の液冷とは異なるアプローチで、ファンレス・配管レスの冷却を実現するという点で注目を集めている。

企業本社冷却方式主要顧客特徴
Vertiv米国オハイオDLC + 空冷Nvidia, AWSCDU市場シェア首位
CoolITカナダDLC特化Microsoft, Meta200万ノード以上の実績
GRC米国テキサス浸漬冷却通信・金融PUE 1.03達成
Frore Systems米国カリフォルニアソリッドステートPC・エッジ$143Mユニコーン
Schneider Electricフランス総合冷却大手DC事業者EcoStruxureプラットフォーム

PUE改善の経済的インパクト

PUE(Power Usage Effectiveness)は、データセンターの総消費電力をIT機器の消費電力で割った値で、1.0に近いほど効率的であることを意味する。

空冷のデータセンターの平均PUEは1.3〜1.5程度だ。これは、IT機器が1Wの電力を消費するごとに、冷却やその他のインフラに0.3〜0.5Wの追加電力が必要であることを意味する。

液冷を導入すると、PUEは1.1〜1.2(DLC)あるいは1.02〜1.10(浸漬冷却)まで改善する。この差は、大規模データセンターでは年間数百万ドル〜数千万ドルの電力コスト削減に直結する。

具体的な試算を示そう。100MWのAIデータセンターの場合:

  • 空冷(PUE 1.4): 総電力消費 140MW → 冷却に40MW消費 → 年間電力コスト約1億2,300万ドル(電力単価$0.10/kWh想定)
  • DLC(PUE 1.15): 総電力消費 115MW → 冷却に15MW消費 → 年間電力コスト約1億100万ドル
  • 差額: 年間約**2,200万ドル(約33億円)**の電力コスト削減

この規模のコスト削減は、液冷設備の導入費用を2〜3年で回収できるレベルであり、経済合理性は明白だ。さらに、冷却に必要なスペースが減ることで、同じ床面積により多くのGPUラックを設置でき、計算能力の密度も向上する。

$6,500億の設備投資が冷却市場を牽引

2026年、テック大手のAIインフラ向け設備投資(CAPEX)は合計で**6,500億ドル(約97.5兆円)**に達するとみられている。Microsoft、Google、Meta、Amazon、Oracleなどが数百億ドル規模のデータセンター建設計画を発表しており、そのすべてでAIワークロードへの対応が主要な設計要件となっている。

この巨額投資の中で、冷却インフラは全体の**10〜15%を占めると推定されている。つまり、冷却関連だけで650億〜975億ドル(約9.8兆〜14.6兆円)**の市場機会が生まれる計算だ。

具体的には以下の分野で投資が活発化している。

  • CDU(Coolant Distribution Unit): ラック列全体に冷却液を循環させる装置。Vertivが市場をリード
  • コールドプレート: GPU に直接装着する熱交換器。CoolIT が大量受注を獲得
  • 冷却液: 非導電性フッ素系液体の需要が急増。3MのNovecシリーズが業界標準だったが、3Mの製造中止決定により代替品の開発競争が加速
  • 配管・バルブ: データセンター向け精密配管。従来の空調ダクトからの設計転換が進行中

日本のデータセンター市場への影響

国内液冷導入の現状

日本のデータセンター市場でも液冷への移行は始まっている。NTTデータ、さくらインターネット、KDDIなどの大手事業者が液冷対応のデータセンター建設を発表または着工済みだ。

特にさくらインターネットは、経済産業省のクラウド基盤整備事業の支援を受けてGPUクラスタの大規模増設を進めており、最新設備では液冷が標準採用されている。

日本特有の課題

日本で液冷を普及させるには、いくつかの固有の課題がある。

  1. 電力コストの高さ: 日本の産業用電力料金は米国の約2倍。PUE改善による電力削減メリットは相対的に大きいが、初期投資の回収期間が長くなりやすい
  2. 技術者の不足: 液冷システムの設計・施工・保守ができる専門技術者が圧倒的に不足している。空冷のデータセンター運用経験は豊富でも、配管工事やリーク検知の知見を持つ人材は限られる
  3. 地震対策: 日本特有の課題として、液冷配管の耐震設計が必要。漏水リスクは地震時に最大化するため、免震構造との統合設計が求められる
  4. 既存施設の改修: 新築であれば液冷前提の設計が可能だが、既存データセンターの改修は床荷重(液冷は空冷より重い)や配管経路の確保で制約が多い

日本企業にとってのビジネスチャンス

一方で、日本企業にとっての商機も大きい。

  • 精密加工技術: コールドプレートの製造には高精度な金属加工技術が必要であり、日本の製造業の強みが活かせる
  • 冷却液開発: 3MのNovec代替液の開発競争において、日本の化学メーカー(ダイキン工業、AGCなど)が有力候補
  • 省エネ技術: 日本の省エネ規制は世界で最も厳しい部類に入り、PUE改善のノウハウは海外展開にも活用できる

まとめ — 液冷は「あれば便利」から「なければ動かない」へ

GPU消費電力が1,400Wを超える2026年、液冷はもはや選択肢ではなく必須のインフラとなった。空冷の物理的限界は明白であり、AIモデルのスケールが拡大し続ける限り、冷却技術への投資は加速する一方だ。

今後の注目ポイントを整理すると、以下のアクションが重要になる。

  1. データセンター事業者: 新規建設は液冷前提で設計。既存施設もDLCのレトロフィット(後付け)計画を策定する
  2. 投資家: Vertiv、Schneider Electricなど冷却インフラ企業に注目。冷却液メーカー(3M代替品)にも投資機会がある
  3. エンジニア: 液冷システムの設計・運用スキルは今後のキャリアにおいて大きな差別化要素になる。特に日本ではDLC配管設計と耐震対応の組み合わせに需要が集中する
  4. 日本の製造業: コールドプレートや冷却液の部材供給で、グローバルサプライチェーンへの参入を検討する価値がある

6,500億ドルのAIインフラ投資の裏側で、冷却技術は静かに、しかし確実にAI産業の命運を握る存在になっている。

この記事をシェア