クラウド16分で読める

Applied DigitalがGPUクラウド事業をスピンアウト——新会社ChronoScaleの全貌

米テキサス州ダラスに本社を置くApplied Digital(NASDAQ: APLD)が、GPU-as-a-Service(GPUaaS)事業を独立会社としてスピンアウトする計画を発表した。新会社の名称は「ChronoScale」で、AI/機械学習ワークロード向けのGPUクラウドサービスに特化する。

Applied Digitalの全体の年間売上が約**$1.68億ドル(約252億円)であるのに対し、GPUクラウド事業単体の年間売上は$7,520万ドル(約113億円)に達しており、急成長中だ。スピンアウトにあたり、AI特化型データセンター企業EKSO**との統合も発表されている。

新会社ChronoScaleは、1ラックあたり120kWの超高密度冷却に対応し、NvidiaのH100およびBlackwell世代のGPUを大規模に提供する。この記事では、ChronoScaleの技術的特徴から、急拡大するGPUクラウド市場の競争環境まで詳しく解説する。

なぜGPU事業をスピンアウトするのか

Applied Digitalは、もともとビットコインマイニング企業として2015年に設立された。暗号資産市場の低迷を受けて2022年にAIデータセンター事業にピボットし、GPU-as-a-Serviceの提供を開始した。

しかし、Applied Digitalには3つの事業セグメントがある。

  1. GPUクラウド(Cloud Services): AIワークロード向けGPU提供 → 今回スピンアウト対象
  2. データセンターホスティング: コロケーションサービス
  3. HPC(High Performance Computing): 大規模計算リソースの提供

3事業が混在する構造では、急成長するGPUクラウド事業に投資家の評価が十分に反映されないという問題があった。GPUクラウド事業の成長率は年間150%超だが、全体の株価はデータセンターの設備投資負担やHPC事業の低マージンに引きずられていた。

スピンアウトにより、ChronoScaleは純粋なGPUクラウド企業として市場に評価される。CoreWeaveが2025年のIPO時に**$230億ドル(約3.45兆円)**の時価総額を付けたことを考えると、ChronoScaleの独立は投資家にとって魅力的な選択肢となる。

EKSO統合の意味

ChronoScaleの設立にあたり、Applied DigitalはAI特化型データセンター企業EKSOとの統合を発表している。EKSOは液冷技術に強みを持つ企業で、1ラックあたり100kW以上の冷却に対応する独自の液冷システムを開発している。

この統合により、ChronoScaleは「GPUクラウドサービス」と「超高密度液冷データセンター」の両方を垂直統合で提供できる体制を構築する。

ChronoScaleの技術的特徴

120kW/ラックの超高密度冷却

従来のデータセンターでは、1ラックあたりの消費電力は5〜15kWが標準だった。AIワークロードの急増により、この数値は急速に引き上げられているが、多くのデータセンターは30〜50kW/ラック程度に留まっている。

ChronoScaleが対応する120kW/ラックは、業界最高水準だ。Nvidia H100は1基あたり約700W、Blackwell B200は1基あたり約1,000Wを消費する。120kWのラックには、H100なら約170基、B200なら約120基を搭載できる計算になる。ただし実際にはネットワーク機器や電源ユニットなどの補機類も電力を消費するため、実装密度はこれより低くなる。

この超高密度を実現するのが、EKSOの液冷技術だ。従来の空冷方式では30kW/ラックを超えると冷却が困難になるが、液冷(直接液冷またはリアドア液冷)により120kW以上の冷却が可能になる。

ChronoScaleのGPUクラウドインフラストラクチャ構成

この図は、ChronoScaleのデータセンターインフラストラクチャの構成と、従来型データセンターとの冷却能力の比較を示しています。

H100 + Blackwell GPUラインナップ

ChronoScaleは、Nvidiaの以下のGPUを提供する。

Nvidia H100 SXM5

  • HBM3メモリ80GB
  • FP8性能: 3,958 TFLOPS
  • NVLink 4.0対応(GPU間通信帯域900GB/s)
  • 主な用途: 大規模言語モデル(LLM)のトレーニング・推論

Nvidia Blackwell B200

  • HBM3eメモリ192GB
  • FP8性能: 9,000 TFLOPS(H100比2.3倍)
  • NVLink 5.0対応(GPU間通信帯域1.8TB/s)
  • 主な用途: 次世代LLMトレーニング、マルチモーダルAI

Nvidia GB200 NVL72

  • B200 GPU 72基 + Grace CPU 36基を1つのラックに統合
  • 液冷必須(空冷不可)
  • 1ラックあたり120kW消費
  • LLMの推論スループットがH100比30倍

ネットワークアーキテクチャ

GPUクラウドにおいて、GPUの性能と同等に重要なのがネットワーク帯域だ。数千基のGPUを使った分散学習では、GPU間の通信がボトルネックになりやすい。

ChronoScaleは以下のネットワーク構成を採用している。

  • GPU間接続: Nvidia NVLink(ノード内)、InfiniBand NDR 400Gb/s(ノード間)
  • ストレージ接続: NVMe over Fabrics(100Gb/s RDMA)
  • 外部接続: 100GbE × 複数リンク(顧客ネットワークへの接続)
  • 遅延: ノード間レイテンシ 1μs以下

年間売上$7,520万ドルの内訳

Applied Digitalの2025年度(2025年6月期)のGPUクラウド事業の売上は**$7,520万ドル(約113億円)**だった。内訳は以下の通りだ。

  • 長期契約顧客(70%): 1年以上のリザーブドインスタンス契約。主にAIスタートアップや研究機関が対象
  • オンデマンド(20%): 時間単位でのGPU利用。短期のモデルトレーニングや推論ワークロード
  • マネージドサービス(10%): GPU環境の構築・運用代行。MLOps支援を含む

顧客数は発表時点で約50社。業種別には、AI/MLスタートアップが約60%、研究機関・大学が約20%、エンタープライズが約20%という構成だ。

GPUクラウド市場の競争環境

GPUクラウド市場は、2025年に約**$150億ドル(約2.25兆円)に達し、2028年には$500億ドル(約7.5兆円)**を超えると予測されている。この急成長市場に、新旧さまざまなプレイヤーが参入している。

主要プレイヤー比較

項目ChronoScaleCoreWeaveLambda LabsAWS (EC2 P5)GCP (A3)Azure (ND H200)
設立/開始2026年2017年2012年2006年2008年2010年
時価総額未定$230億非公開---
GPU種類H100/B200/GB200H100/H200/B200H100/A100H100/H200H100/H200H100/H200
冷却方式液冷(120kW)液冷(100kW)空冷/液冷液冷液冷液冷
H100 1時間料金$2.49(推定)$2.23$1.99$32.77$31.22$33.50
最小契約なし6か月〜なしなしなしなし
主な強み超高密度冷却大規模クラスタ開発者体験エコシステムTPUとの連携Azure統合

注目すべきは、専業GPUクラウド(ChronoScale、CoreWeave、Lambda Labs)とハイパースケーラー(AWSGoogle Cloud、Azure)の価格差が10倍以上ある点だ。

ハイパースケーラーの価格が高いのは、マネージドサービスの付加価値(監視、自動スケーリング、セキュリティ、コンプライアンス対応など)が含まれているためだ。一方、専業GPUクラウドは「ベアメタルGPU」に近いサービスで、管理は利用者に委ねられる。

エンタープライズ顧客はハイパースケーラーを、AIスタートアップや研究機関はコスト重視で専業GPUクラウドを選ぶ傾向がある。

CoreWeaveとの比較

ChronoScaleの最も直接的な競合はCoreWeaveだ。CoreWeaveは2025年3月にNASDAQに上場し、$230億ドルの時価総額を付けた。同社はMicrosoftとの大型契約($100億ドル超)を獲得しており、GPUクラウド市場のリーダーだ。

ChronoScaleがCoreWeaveに対して優位に立てるポイントは2つある。

冷却技術: ChronoScaleの120kW/ラックは、CoreWeaveの100kW/ラックを上回る。GB200 NVL72のような次世代GPUラックは120kW以上の冷却が必須であり、この技術的優位は重要だ。

柔軟な契約形態: CoreWeaveは6か月以上の長期契約を基本としているが、ChronoScaleはオンデマンド利用も提供する。短期プロジェクトや実験的なAI開発には、この柔軟性が魅力だ。

GPUクラウド市場の成長予測と主要プレイヤーのポジション

この図は、GPUクラウド市場の成長予測と、ハイパースケーラーvs専業GPUクラウドの価格・性能比較を示しています。

日本のGPUクラウド市場

日本でもGPUクラウドの需要は急増しており、国内プレイヤーの動きが活発だ。

さくらインターネット

さくらインターネットは、政府のAI戦略を受けてNvidia H100を2,000基超導入し、「高火力 GPUクラウド」サービスを提供している。2025年には経済産業省の「AIインフラ整備事業」に採択され、追加投資を進めている。

H100のオンデマンド料金は1時間あたり約**500円(約$3.3)**で、海外の専業GPUクラウドに比べるとやや高いが、日本国内のデータ主権を確保できる点が強みだ。

GMOインターネットグループ

GMOは2025年に「GMO GPUクラウド」をローンチし、AIスタートアップや研究機関向けにH100を提供している。北九州データセンターを拠点としており、九州電力の安価な電力を活用してコスト競争力を確保している。

NTTコミュニケーションズ

NTTコミュニケーションズは、エンタープライズ向けにGPUクラウドを提供。IIJ(インターネットイニシアティブ)も同様のサービスを展開しており、大企業のセキュリティ・コンプライアンス要件に対応している。

日本市場の課題

日本のGPUクラウド市場が抱える最大の課題は電力コストだ。データセンターの電力単価は、米国(テキサス州)が$0.05〜0.08/kWhであるのに対し、日本は$0.15〜0.25/kWhと2〜3倍高い。120kW/ラックのGB200 NVL72を1,000ラック運用した場合、年間の電力コスト差は数十億円に達する。

この電力コスト差が、日本のGPUクラウド事業者の価格競争力を制約している。一方で、データ主権規制の強化や日本語AIモデルの需要増加により、国内GPUクラウドの必要性は高まっている。

項目日本米国
電力単価$0.15-0.25/kWh$0.05-0.08/kWh
主要事業者さくら、GMO、NTTCoreWeave、Lambda、ChronoScale
GPU提供数数千基規模数万〜十万基規模
政府支援経産省AI基盤整備CHIPS法 / DOE助成
データ主権個人情報保護法各州法+連邦規制
H100 1時間料金約500円約300-380円

AIインフラへの投資が加速する背景

ChronoScaleのようなGPUクラウド企業が急成長する背景には、AI開発に必要な計算資源の指数関数的な増加がある。

トレーニングコストの推移

大規模言語モデルのトレーニングコストは、年々急増している。

  • GPT-3(2020年): 推定$460万ドル(約7億円)
  • GPT-4(2023年): 推定$1億ドル(約150億円)
  • GPT-5(2025年): 推定$5億ドル(約750億円)
  • 次世代モデル(2027年予想): $10億〜20億ドル(約1,500〜3,000億円)

これらのコストの大部分はGPU使用料だ。自社でGPUを購入・運用するよりも、GPUクラウドを利用した方が初期投資を抑えられるため、AIスタートアップや中堅企業はGPUクラウドに依存している。

推論需要の爆発

モデルのトレーニングだけでなく、推論(学習済みモデルを使って予測を行う処理)の需要も爆発的に増加している。ChatGPTの月間アクティブユーザーは2026年時点で3億人超に達しており、1回のクエリで数十億パラメータのモデルを実行する推論処理が膨大なGPUリソースを消費している。

推論はトレーニングと異なり、24時間365日の継続的な需要があるため、GPUクラウドにとっては安定した収益源となる。ChronoScaleのオンデマンド利用モデルは、この推論需要の取り込みに適している。

まとめ——GPUクラウドの選び方

Applied DigitalのGPUクラウド事業スピンアウトとChronoScale設立は、GPUクラウド市場の成熟と分化を象徴する出来事だ。以下のポイントを参考に、自社に適したGPUクラウドを選択してほしい。

  1. ワークロードの規模を見極める: 小規模な実験やファインチューニングならAWSGoogle Cloudのスポットインスタンス、大規模トレーニングならCoreWeaveやChronoScaleの長期契約が経済的
  2. 冷却技術に注目する: 次世代GPU(Blackwell世代)は液冷が前提。GPU提供者の冷却技術がサービスの安定性に直結する
  3. データ主権要件を確認する: 日本国内にデータを置く必要がある場合は、さくらインターネットやGMO、NTTの国内GPUクラウドを選択する
  4. 総コストで比較する: GPU単価だけでなく、ネットワーク帯域、ストレージ、サポート、MLOpsツールを含む総コストで判断する
  5. スケーラビリティを考慮する: AI開発は実験段階から本番運用まで、必要なGPU数が100倍以上変動する。柔軟にスケールできるプロバイダーを選ぶことが重要だ

GPUクラウドは「AIの電気代」とも言える存在だ。AI開発の競争力はGPUクラウドの選択に大きく左右される時代に入っている。

この記事をシェア