スタートアップ15分で読める

AIチップの熱問題を解決するFrore Systems——$143Mで評価額$1.64Bのユニコーンに

AIデータセンターの最大のボトルネックは、もはや計算能力でもメモリでもない。だ。NVIDIAの最新GPU「Blackwell B200」は1基あたり1,000W、次世代の「Vera Rubin」は1,400W超の電力を消費し、その大部分が熱として放出される。従来の空冷ファンではもはや冷やしきれず、世界中のデータセンターが過熱の危機に直面している。

この「AIチップの熱問題」を根本から解決しようとしているのが、シリコンバレーのスタートアップ Frore Systems だ。同社は2026年3月16日、Series Dラウンドで1億4,300万ドル(約215億円)を調達し、企業評価額**16億4,000万ドル(約2,460億円)**のユニコーン企業に成長した。累計調達額は3億4,000万ドル(約510億円)に達する。ラウンドはMVP Venturesが主導し、Fidelity Management & Research、Top Tier Capital Partners、Mayfield Fund、Qualcomm Venturesが参加している。

Frore Systemsとは何か

Frore Systemsは、AIチップ向けの革新的な冷却ソリューションを開発するスタートアップだ。同社が掲げるコンセプトは**「Thermal Stack(サーマルスタック)」**——冷却をAIインフラの基盤技術として位置づけ、チップレベルからラック・データセンターレベルまでをカバーする統合的な熱管理プラットフォームを構築している。

従来、データセンターの冷却はファンによる空冷が主流だった。しかしAI時代のGPUは消費電力が急激に増大しており、空冷だけでは物理的に冷却が追いつかない状況になっている。Frore Systemsはこの課題に対して、可動部品を持たないソリッドステート冷却技術という画期的なアプローチで挑んでいる。

同社の主要プロダクトは以下の3つだ。

プロダクト方式対象特徴
AirJetソリッドステート空冷ノートPC・エッジデバイスファンレスで1mm厚、騒音ゼロ
LiquidJetオンチップ液冷データセンターGPUチップ直上で液冷、配管不要
LiquidJet Nexusラックスケール液冷NVIDIA Kyberトレイ対応ラック全体の熱を一括管理

AirJetは消費者向けデバイスでの実績を持つ初期プロダクトで、2024年にIntelのノートPC向けに採用された。しかし同社の成長を加速させているのは、データセンター向けのLiquidJetシリーズだ。

LiquidJetとAirJetの技術——なぜ革新的なのか

AirJet:ファンを置き換えるチップ

AirJetは、MEMS(微小電気機械システム)技術を応用したソリッドステートの空冷チップだ。わずか数ミリの薄さで、内部に微細な振動膜を持つ。この膜がパルス的に空気を押し出すことで、従来のファンと同等以上の冷却効果を発揮する。可動部品がないためファンのような機械的な摩耗がなく、騒音もほぼゼロだ。

LiquidJet:チップの上に"冷却エンジン"を載せる

LiquidJetはAirJetの技術をさらに発展させた液冷ソリューションだ。最大の特徴は、**冷却液をチップの直上で循環させる「オンチップ冷却」**という点にある。従来の液冷システムでは、コールドプレート(金属板)をチップに密着させ、外部のポンプで冷却液を循環させる。このためデータセンター全体に配管を張り巡らせる必要があり、導入コストとメンテナンス負荷が大きかった。

LiquidJetはポンプや外部配管を必要とせず、チップ上のモジュール内で冷却液の循環を完結させる。これにより、既存のサーバーラックに大きな改修なしで導入できるという利点がある。

LiquidJet Nexus:NVIDIAエコシステムへの統合

LiquidJet Nexusは、NVIDIAの最新ラックアーキテクチャ「Kyberトレイ」に対応したラックスケールの冷却ソリューションだ。Kyberトレイは、NVIDIAがBlackwell世代以降のGPUを効率的に配置するために設計した新しいサーバートレイ規格であり、Frore Systemsがこの規格に対応した冷却製品を投入したことは、NVIDIAエコシステムにおける同社の存在感を示している。

以下の図は、主要な冷却技術の性能比較を示しています。

データセンター冷却技術の比較図。従来の空冷・液冷・Frore LiquidJet・浸漬冷却の4方式を冷却能力・コスト・可動部品・騒音の観点で比較

この比較からわかるように、Frore LiquidJetは冷却能力が最高クラスでありながら、可動部品がなく騒音も極小という独自のポジションを確立している。浸漬冷却は冷却能力こそ高いが、サーバーを丸ごと液体に浸すためインフラの全面改修が必要で、導入コストが桁違いに大きい。

冷却方式の詳細比較

各冷却方式をさらに詳しく比較すると、以下のようになる。

項目従来の空冷従来の液冷Frore LiquidJet浸漬冷却
冷却能力〜300W/チップ〜800W/チップ〜1,000W+/チップ〜1,500W+/チップ
導入コスト低い中〜高中程度非常に高い
運用コスト高い(電力)中程度低い低い
既存施設への導入容易配管工事が必要比較的容易全面改修が必要
可動部品ファン(故障リスクあり)ポンプ(故障リスクあり)なしなし
騒音大きい小さい極小なし
メンテナンスファン交換が必要液漏れ監視が必要ほぼ不要液体の管理が必要
スケーラビリティ限界ありラック単位で拡張チップ〜ラック単位施設単位

なぜ今AIチップ冷却が重要なのか

GPU消費電力の爆発的な増加

AI時代のGPU消費電力は、過去6年間で3.5倍に急増している。

以下の図は、NVIDIAのデータセンター向けGPUのTDP(熱設計電力)の推移を示しています。

AI/HPC向けGPUの消費電力(TDP)推移を示す棒グラフ。2020年のA100(400W)から2026年のVera Rubin(1400W超)まで6年間でTDPが3.5倍に急増している

2020年のA100が400Wだったのに対し、2024年のBlackwell B200は1,000W、2025年のGB300スーパーチップは1,400Wに達する。さらに2026年のVera Rubin世代では1,400Wを超えることが見込まれている。この「電力=熱」の指数的増加に対して、従来の空冷技術では物理的な限界が来ている。

データセンターの電力問題

AIデータセンターの消費電力は世界全体で急増しており、国際エネルギー機関(IEA)は2026年までにデータセンターの電力消費が2022年比で2倍以上になると予測している。消費電力の30〜40%が冷却に使われているという試算もあり、冷却効率の改善はデータセンターのTCO(総保有コスト)に直結する。

AWSGoogle Cloudといったハイパースケーラーは、次世代GPU(NVIDIAのBlackwell・Vera Rubin、AMDのMI400シリーズ)を大量導入するために、冷却インフラの全面的な見直しを迫られている。Frore Systemsの「サーマルスタック」が注目される理由は、この巨大な課題に対する現実的かつスケーラブルなソリューションを提供しているからだ。

電力密度の壁

問題は単にチップ1基の消費電力だけではない。AIワークロードでは数千基のGPUを密集させて並列処理を行うため、ラックあたりの電力密度が急上昇している。従来のデータセンターはラックあたり10〜15kWを想定して設計されていたが、AI向けのGPUラックは40〜120kWに達する。この密度では従来の空冷はもちろん、標準的な液冷でも対応が難しいケースがある。

投資家と市場機会

$340Mの累計調達が示す市場の期待

Frore Systemsの累計調達額3億4,000万ドルは、冷却技術のスタートアップとしては異例の規模だ。今回のSeries DにはMVP VenturesのほかFidelity Management & Research(世界最大級の資産運用会社の投資部門)、Qualcomm Ventures(半導体大手の投資部門)が参加しており、金融市場と半導体業界の両方からの高い評価を得ている。

ラウンド時期調達額主要投資家
Series A〜C2020〜2024年$197M(累計)Mayfield Fund、Qualcomm Ventures
Series D2026年3月$143MMVP Ventures、Fidelity、Top Tier
累計$340M

データセンター冷却市場の規模

データセンター冷却市場は2025年時点で約200億ドル規模とされ、2030年までに500億ドル以上に成長するとの予測がある。AI需要がこの成長を牽引しており、特に液冷市場は年率40%以上の成長が見込まれている。Frore Systemsが「サーマルスタック」というプラットフォーム戦略をとっているのは、この巨大市場を包括的に狙うためだ。

競合状況

データセンター冷却のスタートアップは他にも存在する。浸漬冷却のLiquidCool Solutions、リアマウント液冷のCoolIT Systems、直接液冷のAsetek(NASDAQに上場済み)などが主要プレイヤーだ。しかし「可動部品のないオンチップ液冷」というアプローチはFrore Systems独自のものであり、特許ポートフォリオの厚さが参入障壁になっている。

日本のデータセンターへの影響

日本のAIインフラ投資の加速

日本政府は2025年から2026年にかけてAIデータセンターへの大規模投資を推進しており、北海道・千葉・大阪を中心に新規データセンター建設が相次いでいる。Microsoft、Google、AWSはそれぞれ日本国内に数千億円規模のデータセンター投資を発表済みだ。

これらの新規データセンターはいずれもAIワークロードを前提に設計されており、冷却技術の選定は最重要の設計判断の一つとなっている。Frore Systemsのような革新的な冷却ソリューションが日本市場に参入すれば、以下の影響が考えられる。

  • 電力コストの削減: 日本の電気料金は米国の約2倍であり、冷却効率の改善による電力コスト削減の効果は米国以上に大きい
  • PUE(電力使用効率)の改善: 日本のデータセンターの平均PUEは1.5前後とされるが、先進的な冷却技術の導入で1.2以下を目指せる
  • 高温多湿環境への対応: 日本の夏季は高温多湿であり、外気冷房だけに頼れない期間が長い。LiquidJetのようなオンチップ冷却は外気温に依存しにくいため、日本の気候に適している

日本企業の冷却技術

日本にはNidec(日本電産)、ダイキン、荏原製作所など、冷却・空調技術で世界をリードする企業が多い。Frore Systemsの技術と日本の製造技術の組み合わせは、興味深い協業の可能性を秘めている。実際にFrore Systemsは「製造拠点のグローバル展開」を進めていると発表しており、日本のパートナー企業との連携も視野に入っている可能性がある。

まとめ

Frore Systemsの$143M調達とユニコーン達成は、**「冷却がAIインフラの基盤技術である」**という認識が投資家と業界に浸透したことの証明だ。GPUの消費電力が年々指数的に増大する中、冷却技術のイノベーションなくしてAIの進化は持続できない。

今後のアクションステップとして以下を提案する。

  1. データセンター運用者: 次世代GPU(Blackwell・Vera Rubin)の導入を計画している場合、Frore Systemsを含む新しい冷却技術の評価を冷却設計のRFPに組み込むべきだ
  2. クラウド利用者: AWSGoogle Cloudを利用してAIワークロードを運用する場合、リージョン選択時にデータセンターの冷却インフラの世代も考慮に入れると、長期的なコスト最適化につながる
  3. 投資家・エンジニア: データセンター冷却は2030年までに500億ドル市場に成長する見込みがある。Frore Systems以外にも、CoolIT Systems、Asetek、LiquidCool Solutionsなどの動向をウォッチしておくと、AIインフラ全体の進化の方向性が見えてくる

AIの進化は計算能力の向上だけでは実現しない。「熱をいかに制御するか」という物理的な課題を解決する企業が、AIインフラの次の覇者になる可能性は十分にある。

この記事をシェア