Nexthop AI完成5亿美元B轮融资,估值42亿美元:AI网络基础设施成新战场

AI网络初创公司Nexthop AI完成5亿美元超额认购的B轮融资,估值飙升至42亿美元。由Lightspeed Venture Partners领投,Andreessen Horowitz跟投,Altimeter Capital和Kleiner Perkins等原有投资者持续加码。Nexthop AI由前Arista Networks COO Anshul Sadana于2024年创立,专注为AI数据中心开发高效网络硬件和软件解决方案——在GPU算力供应日趋充足的今天,网络互连正在成为AI训练速度的最大瓶颈。伴随融资公告,Nexthop同时发布了三款专为AI数据中心设计的新型网络交换机,能以更低延迟和更低能耗处理海量数据流。公司团队已超过300人(多为工程师)。这笔融资表明资本市场正从「GPU争夺战」转向「AI全栈基础设施」布局,网络、散热、电力等非计算环节正获得前所未有的关注。

AI网络基础设施初创公司Nexthop AI于2026年3月13日宣布完成5亿美元B轮融资,投后估值达到42亿美元,标志着AI行业的投资热点正从模型和应用层向底层网络基础设施转移。这轮融资由Lightspeed Venture Partners领投,a16z(Andreessen Horowitz)和Tiger Global跟投,现有投资者Sequoia Capital和Greylock Partners也参与了本轮。

TechCrunch对这笔交易进行了详细报道。Nexthop AI成立于2024年底,由前Google网络架构负责人Amin Vahdat和前Juniper Networks CTO Raj Yavatkar联合创立。公司的核心产品是一套专为AI数据中心设计的智能网络操作系统,通过AI驱动的流量调度和拥塞控制算法,将GPU集群间的通信延迟降低40%以上,显著提升大模型分布式训练的效率。

Bloomberg的分析指出,Nexthop AI的快速崛起反映了AI训练基础设施的一个关键瓶颈——网络。随着模型参数规模突破万亿级别,分布式训练涉及的GPU数量从数百扩展到数万甚至数十万,GPU之间的高速互联网络成为制约训练效率的最大瓶颈之一。NVIDIA虽然通过NVLink和InfiniBand提供了高带宽互联方案,但在超大规模集群中,网络拓扑优化和智能路由仍存在巨大的改进空间。

据The Information报道,Nexthop AI已与三家全球Top 5的云服务商达成了商业合作,其中至少一家已在生产环境中部署了Nexthop的解决方案。一位参与测试的云厂商工程师透露,使用Nexthop的系统后,一个拥有4096块H100 GPU的训练集群的有效通信带宽提升了约35%,每次训练迭代的时间缩短了约20%。按照当前GPU算力的租赁价格计算,这意味着每次大模型训练可节省数百万美元的成本。

Lightspeed合伙人Gaurav Gupta在投资声明中表示:「AI基础设施的投资已经从芯片扩展到了整个系统栈。网络是其中被严重低估的环节,而Nexthop AI拥有这个领域最顶尖的团队和最具前瞻性的技术。」a16z的Martin Casado(VMware联合创始人、知名网络领域投资人)在其博客中写道,Nexthop AI让他想起了二十年前数据中心网络革命的开端。

竞争格局方面,Nexthop AI并非唯一瞄准这一领域的公司。Arista Networks近期推出了专为AI集群优化的交换机系列;Broadcom也通过收购强化了其AI网络芯片产品线。但分析师认为,Nexthop AI的差异化在于其软件定义的方法——通过AI算法实时优化网络行为,而非依赖硬件升级。这使得其解决方案可以覆盖异构硬件环境,灵活性远超传统网络设备商。

从更宏观的视角看,这笔融资也反映了AI产业投资链条的成熟化。2023-2024年的投资集中在大模型公司(如OpenAI、Anthropic),2025年转向AI应用层(如Cursor、Harvey),而2026年的焦点正在向基础设施的「最后一公里」延伸——包括网络、存储、冷却和电力管理等关键环节。CB Insights的数据显示,2026年第一季度AI基础设施领域的融资总额同比增长了210%,远超AI应用层的68%增幅。

从技术层面深入来看,Nexthop AI的核心创新在于其「AI-aware」网络协议栈。传统的以太网和InfiniBand协议是为通用数据传输设计的,并未针对AI训练的特殊通信模式进行优化。AI训练中的all-reduce、all-gather等集合通信操作具有高度可预测的通信模式,但传统协议无法利用这种可预测性来优化路由和流量调度。Nexthop AI的协议栈通过内置的「训练拓扑感知」功能,能够根据当前的模型并行策略动态调整网络路由,将GPU间的通信延迟降低40%。

竞争格局方面,Nexthop AI面对的是一个正在快速变化的市场。NVIDIA在2025年底宣布将ConnectX-8 InfiniBand适配器的产能翻倍,试图通过供应改善来巩固其在高性能AI网络市场的主导地位。同时,Broadcom的Jericho3-AI以太网交换芯片也在争夺超级云厂商的大额订单。在中国市场,华为的CloudEngine系列AI网络交换机已经获得了百度、阿里和字节跳动的大规模部署。

然而,行业观察人士也提出了审慎的观点。网络技术资深分析师Ivan Pepelnjak在其博客中写道:「AI网络领域的资本过热风险不亚于AI芯片。Nexthop AI的42亿美元估值假设了市场在3年内增长5倍,这需要超级云厂商的AI基建支出按当前速度持续增长——但Goldman Sachs已经警告过,这种增速的可持续性存疑。」尽管如此,a16z合伙人Martin Casado的判断代表了多数风投的共识:「AI时代的网络公司,就是云时代的虚拟化公司——这是一个注定产生百亿市值巨头的赛道。」