AIチップの熱問題を解決するFrore Systems——$143Mで評価額$1.64Bのユニコーンに
AIデータセンターの最大のボトルネックは、もはや計算能力でもメモリでもない。熱だ。NVIDIAの最新GPU「Blackwell B200」は1基あたり1,000W、次世代の「Vera Rubin」は1,400W超の電力を消費し、その大部分が熱として放出される。従来の空冷ファンではもはや冷やしきれず、世界中のデータセンターが過熱の危機に直面している。
この「AIチップの熱問題」を根本から解決しようとしているのが、シリコンバレーのスタートアップ Frore Systems だ。同社は2026年3月16日、Series Dラウンドで1億4,300万ドル(約215億円)を調達し、企業評価額**16億4,000万ドル(約2,460億円)**のユニコーン企業に成長した。累計調達額は3億4,000万ドル(約510億円)に達する。ラウンドはMVP Venturesが主導し、Fidelity Management & Research、Top Tier Capital Partners、Mayfield Fund、Qualcomm Venturesが参加している。
Frore Systemsとは何か
Frore Systemsは、AIチップ向けの革新的な冷却ソリューションを開発するスタートアップだ。同社が掲げるコンセプトは**「Thermal Stack(サーマルスタック)」**——冷却をAIインフラの基盤技術として位置づけ、チップレベルからラック・データセンターレベルまでをカバーする統合的な熱管理プラットフォームを構築している。
従来、データセンターの冷却はファンによる空冷が主流だった。しかしAI時代のGPUは消費電力が急激に増大しており、空冷だけでは物理的に冷却が追いつかない状況になっている。Frore Systemsはこの課題に対して、可動部品を持たないソリッドステート冷却技術という画期的なアプローチで挑んでいる。
同社の主要プロダクトは以下の3つだ。
| プロダクト | 方式 | 対象 | 特徴 |
|---|---|---|---|
| AirJet | ソリッドステート空冷 | ノートPC・エッジデバイス | ファンレスで1mm厚、騒音ゼロ |
| LiquidJet | オンチップ液冷 | データセンターGPU | チップ直上で液冷、配管不要 |
| LiquidJet Nexus | ラックスケール液冷 | NVIDIA Kyberトレイ対応 | ラック全体の熱を一括管理 |
AirJetは消費者向けデバイスでの実績を持つ初期プロダクトで、2024年にIntelのノートPC向けに採用された。しかし同社の成長を加速させているのは、データセンター向けのLiquidJetシリーズだ。
LiquidJetとAirJetの技術——なぜ革新的なのか
AirJet:ファンを置き換えるチップ
AirJetは、MEMS(微小電気機械システム)技術を応用したソリッドステートの空冷チップだ。わずか数ミリの薄さで、内部に微細な振動膜を持つ。この膜がパルス的に空気を押し出すことで、従来のファンと同等以上の冷却効果を発揮する。可動部品がないためファンのような機械的な摩耗がなく、騒音もほぼゼロだ。
LiquidJet:チップの上に"冷却エンジン"を載せる
LiquidJetはAirJetの技術をさらに発展させた液冷ソリューションだ。最大の特徴は、**冷却液をチップの直上で循環させる「オンチップ冷却」**という点にある。従来の液冷システムでは、コールドプレート(金属板)をチップに密着させ、外部のポンプで冷却液を循環させる。このためデータセンター全体に配管を張り巡らせる必要があり、導入コストとメンテナンス負荷が大きかった。
LiquidJetはポンプや外部配管を必要とせず、チップ上のモジュール内で冷却液の循環を完結させる。これにより、既存のサーバーラックに大きな改修なしで導入できるという利点がある。
LiquidJet Nexus:NVIDIAエコシステムへの統合
LiquidJet Nexusは、NVIDIAの最新ラックアーキテクチャ「Kyberトレイ」に対応したラックスケールの冷却ソリューションだ。Kyberトレイは、NVIDIAがBlackwell世代以降のGPUを効率的に配置するために設計した新しいサーバートレイ規格であり、Frore Systemsがこの規格に対応した冷却製品を投入したことは、NVIDIAエコシステムにおける同社の存在感を示している。
以下の図は、主要な冷却技術の性能比較を示しています。
この比較からわかるように、Frore LiquidJetは冷却能力が最高クラスでありながら、可動部品がなく騒音も極小という独自のポジションを確立している。浸漬冷却は冷却能力こそ高いが、サーバーを丸ごと液体に浸すためインフラの全面改修が必要で、導入コストが桁違いに大きい。
冷却方式の詳細比較
各冷却方式をさらに詳しく比較すると、以下のようになる。
| 項目 | 従来の空冷 | 従来の液冷 | Frore LiquidJet | 浸漬冷却 |
|---|---|---|---|---|
| 冷却能力 | 〜300W/チップ | 〜800W/チップ | 〜1,000W+/チップ | 〜1,500W+/チップ |
| 導入コスト | 低い | 中〜高 | 中程度 | 非常に高い |
| 運用コスト | 高い(電力) | 中程度 | 低い | 低い |
| 既存施設への導入 | 容易 | 配管工事が必要 | 比較的容易 | 全面改修が必要 |
| 可動部品 | ファン(故障リスクあり) | ポンプ(故障リスクあり) | なし | なし |
| 騒音 | 大きい | 小さい | 極小 | なし |
| メンテナンス | ファン交換が必要 | 液漏れ監視が必要 | ほぼ不要 | 液体の管理が必要 |
| スケーラビリティ | 限界あり | ラック単位で拡張 | チップ〜ラック単位 | 施設単位 |
なぜ今AIチップ冷却が重要なのか
GPU消費電力の爆発的な増加
AI時代のGPU消費電力は、過去6年間で3.5倍に急増している。
以下の図は、NVIDIAのデータセンター向けGPUのTDP(熱設計電力)の推移を示しています。
2020年のA100が400Wだったのに対し、2024年のBlackwell B200は1,000W、2025年のGB300スーパーチップは1,400Wに達する。さらに2026年のVera Rubin世代では1,400Wを超えることが見込まれている。この「電力=熱」の指数的増加に対して、従来の空冷技術では物理的な限界が来ている。
データセンターの電力問題
AIデータセンターの消費電力は世界全体で急増しており、国際エネルギー機関(IEA)は2026年までにデータセンターの電力消費が2022年比で2倍以上になると予測している。消費電力の30〜40%が冷却に使われているという試算もあり、冷却効率の改善はデータセンターのTCO(総保有コスト)に直結する。
AWSやGoogle Cloudといったハイパースケーラーは、次世代GPU(NVIDIAのBlackwell・Vera Rubin、AMDのMI400シリーズ)を大量導入するために、冷却インフラの全面的な見直しを迫られている。Frore Systemsの「サーマルスタック」が注目される理由は、この巨大な課題に対する現実的かつスケーラブルなソリューションを提供しているからだ。
電力密度の壁
問題は単にチップ1基の消費電力だけではない。AIワークロードでは数千基のGPUを密集させて並列処理を行うため、ラックあたりの電力密度が急上昇している。従来のデータセンターはラックあたり10〜15kWを想定して設計されていたが、AI向けのGPUラックは40〜120kWに達する。この密度では従来の空冷はもちろん、標準的な液冷でも対応が難しいケースがある。
投資家と市場機会
$340Mの累計調達が示す市場の期待
Frore Systemsの累計調達額3億4,000万ドルは、冷却技術のスタートアップとしては異例の規模だ。今回のSeries DにはMVP VenturesのほかFidelity Management & Research(世界最大級の資産運用会社の投資部門)、Qualcomm Ventures(半導体大手の投資部門)が参加しており、金融市場と半導体業界の両方からの高い評価を得ている。
| ラウンド | 時期 | 調達額 | 主要投資家 |
|---|---|---|---|
| Series A〜C | 2020〜2024年 | $197M(累計) | Mayfield Fund、Qualcomm Ventures |
| Series D | 2026年3月 | $143M | MVP Ventures、Fidelity、Top Tier |
| 累計 | — | $340M | — |
データセンター冷却市場の規模
データセンター冷却市場は2025年時点で約200億ドル規模とされ、2030年までに500億ドル以上に成長するとの予測がある。AI需要がこの成長を牽引しており、特に液冷市場は年率40%以上の成長が見込まれている。Frore Systemsが「サーマルスタック」というプラットフォーム戦略をとっているのは、この巨大市場を包括的に狙うためだ。
競合状況
データセンター冷却のスタートアップは他にも存在する。浸漬冷却のLiquidCool Solutions、リアマウント液冷のCoolIT Systems、直接液冷のAsetek(NASDAQに上場済み)などが主要プレイヤーだ。しかし「可動部品のないオンチップ液冷」というアプローチはFrore Systems独自のものであり、特許ポートフォリオの厚さが参入障壁になっている。
日本のデータセンターへの影響
日本のAIインフラ投資の加速
日本政府は2025年から2026年にかけてAIデータセンターへの大規模投資を推進しており、北海道・千葉・大阪を中心に新規データセンター建設が相次いでいる。Microsoft、Google、AWSはそれぞれ日本国内に数千億円規模のデータセンター投資を発表済みだ。
これらの新規データセンターはいずれもAIワークロードを前提に設計されており、冷却技術の選定は最重要の設計判断の一つとなっている。Frore Systemsのような革新的な冷却ソリューションが日本市場に参入すれば、以下の影響が考えられる。
- 電力コストの削減: 日本の電気料金は米国の約2倍であり、冷却効率の改善による電力コスト削減の効果は米国以上に大きい
- PUE(電力使用効率)の改善: 日本のデータセンターの平均PUEは1.5前後とされるが、先進的な冷却技術の導入で1.2以下を目指せる
- 高温多湿環境への対応: 日本の夏季は高温多湿であり、外気冷房だけに頼れない期間が長い。LiquidJetのようなオンチップ冷却は外気温に依存しにくいため、日本の気候に適している
日本企業の冷却技術
日本にはNidec(日本電産)、ダイキン、荏原製作所など、冷却・空調技術で世界をリードする企業が多い。Frore Systemsの技術と日本の製造技術の組み合わせは、興味深い協業の可能性を秘めている。実際にFrore Systemsは「製造拠点のグローバル展開」を進めていると発表しており、日本のパートナー企業との連携も視野に入っている可能性がある。
まとめ
Frore Systemsの$143M調達とユニコーン達成は、**「冷却がAIインフラの基盤技術である」**という認識が投資家と業界に浸透したことの証明だ。GPUの消費電力が年々指数的に増大する中、冷却技術のイノベーションなくしてAIの進化は持続できない。
今後のアクションステップとして以下を提案する。
- データセンター運用者: 次世代GPU(Blackwell・Vera Rubin)の導入を計画している場合、Frore Systemsを含む新しい冷却技術の評価を冷却設計のRFPに組み込むべきだ
- クラウド利用者: AWSやGoogle Cloudを利用してAIワークロードを運用する場合、リージョン選択時にデータセンターの冷却インフラの世代も考慮に入れると、長期的なコスト最適化につながる
- 投資家・エンジニア: データセンター冷却は2030年までに500億ドル市場に成長する見込みがある。Frore Systems以外にも、CoolIT Systems、Asetek、LiquidCool Solutionsなどの動向をウォッチしておくと、AIインフラ全体の進化の方向性が見えてくる
AIの進化は計算能力の向上だけでは実現しない。「熱をいかに制御するか」という物理的な課題を解決する企業が、AIインフラの次の覇者になる可能性は十分にある。
「スタートアップ」カテゴリの記事
- スタートアップ
27歳が創業したValar Atomics、AI原子炉で$450M調達——評価額$2B
- スタートアップ
Capital OneがBrexを$51.5億で買収——フィンテック史上最大の銀行買収
- スタートアップ
核融合のCFSがマグネット販売で先行収益化——商用炉を待たない戦略
- スタートアップ
RunwayがAIスタートアップ向け$1000万ファンドを設立——動画AI覇権戦略
- スタートアップ
2026年Q1のスタートアップ投資が$2970億で史上最高——AI一極集中
- スタートアップ
Sycamoreが$65Mシード調達——エンタープライズAIエージェントの「OS」を構築