スタートアップ14分で読める

Nexthop AIが$500M調達で評価額$4.2B——AIデータセンターのネットワーク革命

AIインフラへの投資が過熱するなか、データセンターの「神経系」ともいえるネットワーキング領域で巨額の資金調達が発表された。カリフォルニア州サンタクララに本社を置くNexthop AIが、2026年3月10日にSeries Bラウンドで**5億ドル(約750億円)を調達し、企業評価額は42億ドル(約6,300億円)**に達した。本ラウンドはオーバーサブスクライブ(応募超過)となり、Lightspeed Venture Partners、Andreessen Horowitz(a16z)、Altimeter Capitalがリード投資家として名を連ねている。

GPUの数を積み上げるだけではAIの性能は引き出せない——この事実に市場が気づき始めたいま、Nexthop AIが提供するAIデータセンター専用ネットワーキングソリューションが大きな注目を集めている。

Nexthop AIとは何か

Nexthop AIは、元Arista Networksの幹部であるAnshul Sadanaが創業したネットワーキングスタートアップだ。本社はカリフォルニア州サンタクララに置き、シアトル、バンクーバー、ダブリン、ベンガルールにもオフィスを構えるグローバル企業である。

同社の最大の特徴は、**オープンソースのネットワークOS(SONiCおよびFBOSS)**をベースにしたクラウド・AIネットワーキングスイッチを開発している点だ。従来のネットワーク機器メーカーはプロプライエタリなOSを採用し、ハードウェアとソフトウェアを一体で販売するモデルが主流だった。これに対しNexthop AIは、MicrosoftがAzure向けに開発したSONiCやMetaが開発したFBOSSといったオープンソースOSを採用することで、顧客が特定ベンダーにロックインされることなく柔軟にネットワークを構築できる環境を提供している。

さらに同社は**JDM(Just-Design-Manufacturing)**と呼ばれるカスタマイズ製造モデルを採用しており、ハイパースケーラーや大規模AIオペレーターの個別要件に応じた専用ソリューションを提供できる。これにより、汎用品では対応しきれない超大規模AIクラスタの通信要件にも応えられる。

なぜAIデータセンターに専用ネットワークが必要か

AIモデルの学習(トレーニング)では、数千〜数万台のGPUが同時に動作し、パラメータの勾配情報を高速にやり取りする必要がある。たとえば、数兆パラメータの大規模言語モデル(LLM)を学習する場合、GPU間のAll-Reduce通信がボトルネックになるとトレーニング全体が大幅に遅延する。

従来の企業向けネットワークは、南北(North-South)方向のトラフィック——つまりサーバーからインターネットへ出ていく通信——を想定して設計されていた。しかしAIワークロードでは、GPU間の東西(East-West)方向のトラフィックが圧倒的に多く、しかもマイクロ秒単位の低遅延と数百Tbpsの帯域幅が求められる。

こうした背景から、AWSGoogle Cloudをはじめとするハイパースケーラーは、AI専用のネットワークファブリックを独自に構築し始めている。Nexthop AIは、こうした専用ネットワークの構築を支える400G/800Gスイッチと最適化されたソフトウェアスタックを提供する立場にある。

以下の図は、AIデータセンターにおけるネットワーク層の構成とNexthop AIの位置づけを示している。

AIデータセンターのネットワークアーキテクチャ。GPUクラスタからフロントエンドまでの4層構成で、Nexthop AIはスケールアウト層を主力とする

この図のとおり、AIデータセンターのネットワークは大きく4つの層に分かれる。最下層のGPUクラスタから始まり、スケールアウト層(クラスタ内通信)、スケールアクロス層(クラスタ間通信)、そしてフロントエンド層(外部接続)へと構成される。Nexthop AIはとくにスケールアウト層を主力としつつ、全層をカバーする製品群を展開している。

製品ラインナップ

Nexthop AIの製品は、AIデータセンターの各ネットワーク層に対応した3つのカテゴリで構成されている。

スケールアウト スイッチ

GPUクラスタ内の超高速通信を担う製品群。400Gおよび800Gイーサネットに対応し、RoCEv2(RDMA over Converged Ethernet)による低遅延通信を実現する。数千台のGPUを接続するリーフ・スパイン構成に最適化されており、AIトレーニングのAll-Reduce通信パターンに合わせたトラフィックエンジニアリング機能を搭載する。

スケールアクロス ファブリック

複数のGPUクラスタをまたいだ通信を最適化する製品群。異なるラック、異なるホール、さらには異なるデータセンター間をつなぐ広域ファブリックを構成する。大規模AIモデルの分散学習では、モデル並列化やパイプライン並列化によりクラスタをまたいだ通信が発生するため、この層の性能がトレーニング効率に直結する。

フロントエンド スイッチ

AIサービスの推論(インファレンス)トラフィックや、外部からのAPI接続を処理する製品群。ChatGPTのようなAIサービスでは、数百万ユーザーからのリクエストをリアルタイムで処理する必要があり、高スループットと安定した遅延特性が求められる。

いずれの製品もSONiCまたはFBOSSをベースとしており、顧客はオープンソースエコシステムの恩恵を受けながら、Nexthop AIが提供するエンタープライズグレードのサポートとカスタマイズを利用できる。

競合比較

AIデータセンターネットワーキングの市場は、既存の大手ネットワーク機器メーカーとの競争が激しい。以下に主要プレイヤーの比較をまとめた。

項目Nexthop AIArista NetworksCiscoJuniper/HPE
設立2020年代2004年1984年1996年/2015年統合
OSSONiC / FBOSS(OSS)EOS(プロプライエタリ)NX-OS / IOS XRJunos OS
AI特化設計ネイティブ対応後付け対応中後付け対応中後付け対応中
最大ポート速度800G800G400G(800G予定)400G(800G予定)
JDMカスタマイズ対応限定的非対応限定的
ベンダーロックイン低(OSS基盤)中〜高
主要顧客ハイパースケーラー、NeoCloudクラウド、金融エンタープライズ全般通信キャリア、エンタープライズ
強みAI特化・オープン・俊敏性実績・安定性・CloudVision規模・エコシステム・SD-WAN自動化・セキュリティ統合

Nexthop AIの最大の差別化ポイントは、AIワークロードにネイティブ対応した設計オープンソースOSによるベンダーロックインの排除だ。一方、Arista、Cisco、Juniper/HPEはエンタープライズ市場での実績とサポート体制に優位性がある。とくにAristaはクラウド大手への導入実績が豊富で、Nexthop AIにとって最大の競合といえる。

投資家と市場機会

今回のSeries Bラウンドをリードしたのは、テック投資で名高いLightspeed Venture Partners、AI分野で積極投資を続けるAndreessen Horowitz(a16z)、そしてパブリック・プライベート両市場で実績のあるAltimeter Capitalだ。このVCの顔ぶれ自体が、Nexthop AIへの市場の期待の高さを物語っている。

業界アナリストの予測によると、AIデータセンターネットワーキング市場は2031年までに1,000億ドル(約15兆円)規模に達するとされている。2024年時点の約200億ドルから5倍の成長であり、年平均成長率(CAGR)は約26%に達する計算だ。

以下の図は、AIデータセンターネットワーキング市場の成長予測を示している。

AIデータセンターネットワーキング市場規模の推移予測。2024年の$20Bから2031年には$100Bに成長する見込み

この急成長の背景には、大規模言語モデル(LLM)のトレーニングコストの増大がある。GPT-4クラスのモデルのトレーニングには数万台のGPUが必要とされ、そのGPU間を結ぶネットワークへの投資額もGPU自体の調達額に匹敵する規模になりつつある。Nexthop AIは、このGPU投資に付随する巨大なネットワーキング需要を取り込むポジションにある。

加えて、NeoCloudsと呼ばれるAI専業のクラウドプロバイダー(CoreWeave、Lambda Labsなど)の急成長も追い風だ。これらの企業は従来型のエンタープライズネットワーク機器ではなく、AI最適化されたネットワーキングソリューションを求めており、Nexthop AIのターゲット顧客と完全に一致する。

日本のAIインフラへの示唆

日本でもAIインフラへの投資は加速している。政府は「AI戦略2025」のもとで国内データセンターの整備を推進しており、さくらインターネットやNTTグループをはじめとする国内事業者がGPUクラスタの構築を進めている。

しかし、日本のデータセンター事業者の多くは従来型のネットワーク構成に依存しており、AI専用のネットワークファブリック構築のノウハウが不足しているのが実情だ。Nexthop AIのようなオープンソースベースのソリューションは、以下の点で日本市場にとっても重要な選択肢となりうる。

第一に、コスト効率の改善。プロプライエタリなネットワーク機器と比較して、SONiC/FBOSSベースのソリューションはライセンスコストを大幅に削減できる。限られた予算でAIインフラを構築する必要がある日本の事業者にとって、これは大きなメリットだ。

第二に、ベンダーロックインの回避。日本企業は特定ベンダーへの依存度が高い傾向があるが、オープンソースOSを採用することで、ハードウェアとソフトウェアを分離し、段階的なアップグレードやマルチベンダー戦略が可能になる。

第三に、人材育成の観点。SONiCはMicrosoft Azureでの実績があり、グローバルなコミュニティとドキュメントが充実している。日本のネットワークエンジニアがオープンソースネットワーキングのスキルを習得することは、長期的な競争力強化につながる。

AWSGoogle Cloudの日本リージョンを活用してAIワークロードを実行している企業にとっても、ハイブリッドクラウド環境でのネットワーク最適化は今後ますます重要なテーマとなるだろう。

まとめ

Nexthop AIのSeries B調達は、AIインフラ投資の重心がGPUからネットワーキングへと広がっていることを象徴する出来事だ。オープンソースOS、AI特化設計、JDMカスタマイズという3つの柱で、同社は急成長するAIデータセンターネットワーキング市場に独自のポジションを築いている。

今後注目すべきアクションステップは以下のとおりだ。

  1. ネットワーキング投資に注目する: AI関連銘柄はGPU(Nvidia)に偏りがちだが、ネットワーキング(Arista、Nexthop AI)やストレージにも大きな成長機会がある。AI投資のバリューチェーン全体を俯瞰する視点が重要だ。
  2. オープンソースネットワーキングを学ぶ: SONiCやFBOSSは今後のデータセンターネットワーキングの標準になる可能性が高い。ネットワークエンジニアは早期にこれらの技術に触れておくことを推奨する。
  3. 日本のAIインフラ動向をウォッチする: 政府主導のデータセンター整備が進むなか、Nexthop AIのような専用ネットワーキングソリューションが国内でも導入される可能性がある。自社のインフラ戦略を見直すタイミングだ。

AIの進化は、計算だけでなく通信の革新も必要としている。Nexthop AIの躍進は、その潮流を最も鮮明に映し出す事例といえるだろう。

この記事をシェア