Nexthop AIがシリーズBで5億ドル調達、評価額42億ドル:AIネットワークインフラが新たな戦場に
AIネットワーク新興企業Nexthop AIがシリーズBで5億ドルを調達、評価額42億ドルに。Lightspeed主導でa16z参加。元Arista COOが2024年に設立、AIデータセンター向け低遅延・省エネネットワーク機器を開発。GPU供給が充実する中、ネットワーク相互接続がAI学習の最大ボトルネックに。新型スイッチ3機種も発表。
AIネットワークインフラスタートアップのNexthop AIは2026年3月13日、5億ドルのシリーズBラウンドの完了を発表した。ポストマネーバリュエーションは42億ドルに達し、AI業界の投資焦点がモデル・アプリケーション層から基盤となるネットワークインフラへと移行していることを示した。本ラウンドはLightspeed Venture Partnersがリードし、a16z(Andreessen Horowitz)とTiger Globalが参加、既存投資家のSequoia CapitalとGreylock Partnersも本ラウンドに加わった。
TechCrunchがこの取引について詳細に報じた。Nexthop AIは2024年末、元Googleネットワークアーキテクチャ責任者のAmin Vahdatと元Juniper Networks CTOのRaj Yavatkarにより共同設立された。同社のコア製品はAIデータセンター専用に設計されたインテリジェントネットワークオペレーティングシステムで、AI駆動のトラフィックスケジューリングと輻輳制御アルゴリズムにより、GPUクラスター間の通信レイテンシを40%以上削減し、大規模モデルの分散トレーニング効率を大幅に向上させる。
Bloombergの分析は、Nexthop AIの急速な台頭がAIトレーニングインフラにおける重要なボトルネック——ネットワークを反映していると指摘した。モデルパラメータの規模が兆を超え、分散トレーニングに関わるGPU数が数百から数万、さらには数十万へと拡大する中、GPU間の高速インターコネクトネットワークがトレーニング効率を制約する最大のボトルネックの一つとなっている。NVIDIAはNVLinkやInfiniBandを通じて高帯域幅のインターコネクトソリューションを提供しているが、超大規模クラスターにおけるネットワークトポロジーの最適化やインテリジェントルーティングには依然として大きな改善の余地がある。
The Informationの報道によると、Nexthop AIはグローバルTop 5のクラウドプロバイダーのうち3社と商業パートナーシップを締結しており、少なくとも1社は本番環境にNexthopのソリューションを導入済みである。テストに参加したクラウドベンダーのエンジニアは、Nexthopのシステム導入後、4,096基のH100 GPUを擁するトレーニングクラスターの実効通信帯域幅が約35%向上し、各トレーニングイテレーションの所要時間が約20%短縮されたと明かした。現在のGPU計算リソースのレンタル価格に基づくと、これは大規模モデルトレーニング1回あたり数百万ドルのコスト削減を意味する。
Lightspeedのパートナー、Gaurav Guptaは投資声明で次のように述べた。「AIインフラへの投資はチップからシステムスタック全体へと拡大しています。ネットワークはその中で著しく過小評価されている部分であり、Nexthop AIはこの分野で最高峰のチームと最も先見性のある技術を有しています。」a16zのMartin Casado(VMware共同創設者、著名なネットワーク分野の投資家)はブログで、Nexthop AIは20年前のデータセンターネットワーク革命の幕開けを思い起こさせると綴った。
競争環境について、Nexthop AIはこの分野を狙う唯一の企業ではない。Arista NetworksはAIクラスター向けに最適化されたスイッチシリーズを最近リリースし、Broadcomも買収を通じてAIネットワークチップ製品ラインを強化している。しかしアナリストは、Nexthop AIの差別化要因はソフトウェア定義のアプローチにあると見ている——ハードウェアのアップグレードに依存するのではなく、AIアルゴリズムでネットワーク動作をリアルタイムに最適化する。これにより、そのソリューションは異種ハードウェア環境にも対応でき、従来のネットワーク機器ベンダーをはるかに凌ぐ柔軟性を実現している。
より巨視的な視点から見ると、今回の資金調達はAI産業の投資チェーンの成熟化も反映している。2023〜2024年の投資は大規模モデル企業(OpenAI、Anthropicなど)に集中し、2025年にはAIアプリケーション層(Cursor、Harveyなど)に移行、そして2026年の焦点はインフラの「ラストマイル」——ネットワーク、ストレージ、冷却、電力管理などの重要な環節へと広がっている。CB Insightsのデータによると、2026年第1四半期のAIインフラ分野の資金調達総額は前年同期比210%増加し、AIアプリケーション層の68%の増加幅を大きく上回った。
技術面をより深く見ると、Nexthop AIのコアイノベーションは「AI-aware」ネットワークプロトコルスタックにある。従来のイーサネットやInfiniBandプロトコルは汎用データ転送向けに設計されており、AIトレーニング特有の通信パターンに最適化されていない。AIトレーニングにおけるall-reduceやall-gatherなどの集合通信操作は高度に予測可能な通信パターンを持つが、従来のプロトコルはこの予測可能性を活用してルーティングやトラフィックスケジューリングを最適化することができない。Nexthop AIのプロトコルスタックは内蔵の「トレーニングトポロジー認識」機能により、現在のモデル並列化戦略に基づいてネットワークルーティングを動的に調整し、GPU間の通信レイテンシを40%削減する。
競争環境において、Nexthop AIが直面するのは急速に変化する市場である。NVIDIAは2025年末、ConnectX-8 InfiniBandアダプターの生産能力を2倍にすると発表し、供給改善を通じて高性能AIネットワーク市場における支配的地位の強化を図っている。同時に、BroadcomのJericho3-AIイーサネットスイッチチップもハイパースケールクラウドプロバイダーからの大型受注を争っている。中国市場では、HuaweiのCloudEngineシリーズAIネットワークスイッチがBaidu、Alibaba、ByteDanceで大規模に導入されている。
しかし、業界のオブザーバーからは慎重な見方も示されている。ネットワーク技術のベテランアナリスト、Ivan Pepelnjakはブログで次のように述べた。「AIネットワーク分野の資本過熱リスクはAIチップに劣らない。Nexthop AIの42億ドルのバリュエーションは、市場が3年以内に5倍に成長することを前提としており、これはハイパースケールクラウドプロバイダーのAIインフラ支出が現在のペースで成長し続けることを必要とする——しかしGoldman Sachsはすでに、この成長率の持続可能性には疑問があると警告している。」それでも、a16zのパートナーであるMartin Casadoの判断は大多数のVCのコンセンサスを代表している。「AI時代のネットワーク企業は、クラウド時代の仮想化企業である——これは必ず時価総額数百億ドルの巨大企業を生み出す分野だ。」