Nexthop AI 시리즈B 5억 달러 조달, 기업가치 42억 달러: AI 네트워크 인프라가 새 전장으로

AI 네트워크 스타트업 Nexthop AI가 시리즈B 5억 달러 조달로 기업가치 42억 달러 달성. Lightspeed 주도, a16z 참여. 전 Arista COO가 설립, AI 데이터센터용 저지연·저에너지 네트워크 장비 개발. 신형 스위치 3종도 공개.

배경

AI 네트워킹 스타트업인 Nexthop AI가 2026년 3월 13일, 5억 달러 규모의 시리즈 B 라운드 조달을 완료했다고 발표했다. 이 라운드는 Lightspeed Venture Partners가 주도하고, Andreessen Horowitz(a16z)와 Tiger Global이 참여했으며, 기존 투자자인 Sequoia Capital와 Greylock Partners도 추가 투자를 진행했다. 이 결과 Nexthop AI의 사후 평가 가치는 42억 달러로 급등했다. Nexthop AI는 2024년 말, 구글의 네트워크 아키텍처 수장 출신인 Amin Vahdat과 저니퍼 네트워크스의 전 CTO인 Raj Yavatkar에 의해 설립되었다. 이 조달 소식은 AI 산업의 투자 초점이 모델 및 애플리케이션 레이어에서 근본적인 네트워크 인프라로 이동하고 있음을 명확히 시사한다.

현재 AI 생태계에서 GPU 컴퓨팅 파워의 공급이 점차 풍부해짐에 따라, 네트워크 상호 연결이 대규모 분산 학습의 가장 큰 병목 현상으로 부각되고 있다. 모델 파라미터 규모가 트릴리언(조) 단위를 넘어섰고, 수백만 개에 달하는 GPU 클러스터 간의 고속 인터커넥트 네트워크가 학습 효율성을 제약하는 핵심 요소가 되었다. Nexthop AI는 이러한 문제를 해결하기 위해 AI 데이터센터 전용 지능형 네트워크 운영 체제를 개발하며, AI 기반 트래픽 스케줄링 및 혼잡 제어 알고리즘을 통해 GPU 클러스터 간 통신 지연 시간을 40% 이상 줄이는 데 성공했다.

심층 분석

Nexthop AI의 기술적 차별성은 기존 이더넷 및 InfiniBand 프로토콜의 한계를 넘어서는 'AI 인식(AI-aware)' 네트워크 프로토콜 스택에 있다. 전통적인 네트워크 프로토콜은 범용 데이터 전송을 위해 설계되어 있어, AI 학습 과정에서 발생하는 all-reduce나 all-gather와 같은 집단 통신(collective communication) 작업의 예측 가능한 패턴을 활용하지 못했다. Nexthop AI의 솔루션은 모델 병렬화 전략에 따라 네트워크 라우팅을 동적으로 조정하는 '학습 토폴로지 인식' 기능을 내장하고 있어, 하드웨어 업그레이드에만 의존하는 기존 벤더들과 달리 이질적인 하드웨어 환경에서도 유연하게 작동한다.

실제 적용 사례에서도 그 효과는 뚜렷하게 나타났다. 한 글로벌 클라우드 제공업체의 엔지니어에 따르면, 4,096개의 H100 GPU로 구성된 학습 클러스터에 Nexthop 시스템을 도입한 후 유효 통신 대역폭이 약 35% 증가했으며, 각 학습 반복(iteration) 시간이 약 20% 단축되었다. 현재 GPU 컴퓨팅 렌탈 가격을 고려할 때, 이는 대규모 모델 학습당 수백만 달러의 비용 절감 효과를 의미한다. a16z의 Martin Casado는 이 기술이 20년 전 데이터센터 네트워킹 혁명의 시작을 연상시킨다고 평가하며, 네트워킹 회사가 클라우드 시대의 가상화 회사와 마찬가지로 수십억 달러 시장 가치를 지닌 기업들을 탄생시킬 섹터라고 지적했다.

산업 영향

이러한 기술적 진보는 AI 인프라 투자 구조의 근본적인 변화를 촉발하고 있다. 2023년부터 2024년까지의 투자가 OpenAI나 Anthropic과 같은 대형 모델 기업에 집중되었다면, 2025년에는 Cursor나 Harvey와 같은 애플리케이션 레이어로 이동했다. 그러나 2026년에는 네트워킹, 스토리지, 냉각, 전력 관리 등 인프라의 '마지막 1마일'로 투자의 초점이 확장되고 있다. CB Insights의 데이터에 따르면, 2026년 1분기 AI 인프라 분야의 총 자금 조달액은 전년 동기 대비 210% 성장했으며, 이는 AI 애플리케이션 레이어의 68% 성장률을 크게 상회하는 수치다.

경쟁 구도에서도 변화가 일고 있다. NVIDIA는 ConnectX-8 InfiniBand 어댑터의 생산량을 두 배로 늘려 고성능 AI 네트워킹 시장의 지배력을 공고히 하고 있으며, Broadcom는 Jericho3-AI 이더넷 스위치 칩으로 대규모 클라우드 제공업체의 수주를 노리고 있다. 중국의 경우, 화웨이의 CloudEngine 시리즈 AI 네트워크 스위치가 바이두, 알리바바, 바이트댄스에서 대규모로 배포되고 있다. 하지만 Nexthop AI는 소프트웨어 정의 접근 방식을 통해 하드웨어 종속성을 낮추고, 실시간 AI 알고리즘으로 네트워크 행동을 최적화함으로써 기존 경쟁사들과 차별화된 위치를 확보했다.

전망

앞으로 3~6개월 내에는 경쟁사들의 빠른 대응과 개발자 커뮤니티의 평가가 주요 관건이 될 것이다. AI 산업에서는 주요 제품 출시나 전략 조정이 수주 내에 유사 제품의 가속화나 차별화 전략 조정으로 이어지는 경우가 많기 때문이다. 또한, 투자자들은 Nexthop AI의 42억 달러 평가가 향후 3년 내 시장이 5배 성장할 것이라는 전제에 기반하고 있다는 점을 고려할 때, 하이퍼스케일 클라우드 제공업체들의 AI 인프라 지출 지속 가능성에 대한 주의를 기울일 필요가 있다. 골드만 삭스는 이러한 성장의 지속 가능성에 의문을 제기한 바 있다.

장기적으로 볼 때, 이 사건은 AI 능력의 상품화 가속화와 수직 산업 특화 솔루션의 부상을 예고한다. 모델 간 성능 격차가 좁혀짐에 따라 순수한 모델 능력만으로는 지속 가능한 경쟁 우위가 되기 어렵다. 대신, AI 네이티브 워크플로우를 재설계하고 산업별 Know-how를 깊이 있게 이해한 기업들이 주도권을 잡을 것이다. Nexthop AI의 성공은 AI 인프라가 단순한 컴퓨팅 파워를 넘어, 지능형 네트워킹을 통한 시스템 전체의 최적화 경쟁으로 패러다임이 전환되었음을 보여주는 중요한 이정표가 될 것이다.