Anthropic, 펜타곤을 고소한 후 다수 연방 기관에서 퇴출. AI 군사화의 경계는?
미국 국무부, 재무부 등 다수 연방 기관이 Anthropic의 Claude 모델 사용을 중단했다. 군사 및 국가안보 분야 사용 범위에 대한 심각한 의견 차이가 원인이다. Anthropic은 국방부에 무제한 군사 목적 AI 제공을 거부했고, 국방부는 이를 공급망 리스크로 분류, 이후 Anthropic이 국방부를 기소했다.
Anthropic이 미국 국방부와의 AI 계약을 공식 거부했다. 현 단계의 모델이 군사 응용에 요구되는 안전 기준을 충족하지 못한다는 것이 이유이며, 이 결정은 AI 업계에 큰 충격을 주고 있다.
Anthropic CEO Dario Amodei는 공식 성명에서 회사의 핵심 미션이 AI의 안전한 발전이라고 밝혔다. 군사 분야의 AI 응용에는 극히 높은 신뢰성, 예측 가능성, 통제 가능성이 요구되며, AI 시스템의 결정이 인명에 직접 영향을 미칠 수 있는 상황에서는 어떠한 수준의 환각이나 예측 불가능한 행동도 용납될 수 없다고 강조했다. Claude 시리즈가 상업 및 연구 분야에서 뛰어난 성능을 보이고 있지만, 군사 시나리오의 안전 요건은 민간 기준을 훨씬 초과하며, 현재 모델은 그 임계값에 도달하지 못했다는 판단이다.
이 입장은 업계 주류 트렌드와 뚜렷한 대조를 이룬다. OpenAI는 최근 몇 년간 국방부와의 파트너십 범위를 크게 확대해왔다. 초기 사이버 보안 방어 도구에서 정보 분석, 전장 상황 인식, 병참 최적화 등 다양한 분야로 확장했다. 보도에 따르면 OpenAI는 비기밀 정보 요약 및 군사 문서 분석을 위한 맞춤형 GPT 모델을 국방부에 제공했다. 한편 Google은 2018년 Project Maven 직원 항의 사태 이후에도 군사 AI 분야에서 철수하기는커녕 오히려 체계적으로 군사 계약을 심화했다. Google Cloud는 현재 펜타곤의 주요 클라우드 서비스 제공업체 중 하나이다.
Anthropic의 결정은 AI 윤리계에서 양극화된 논쟁을 촉발했다. 저명한 AI 안전 연구자들을 포함한 지지자들은 책임 있는 AI 개발의 모범이라 평가하며, 안전을 핵심 가치로 삼는 기업이 상업적 압력 아래서도 원칙을 지킬 수 있음을 증명했다고 말한다. 그들은 과학자들이 무기 연구 참여를 거부한 역사적 선례를 인용하며, Anthropic의 입장을 AI 시대의 「오펜하이머 순간」이라 규정한다. 그러나 국방 분야 AI 전문가를 포함한 비판자들은 Anthropic의 거부가 순진한 도덕적 포즈라고 주장한다. 안전 의식이 높은 기업이 참여를 거부하면, 국방부는 안전 의식이 낮은 공급업체에 의존할 수밖에 없으며, 결과적으로 더 위험한 AI 시스템이 핵심 군사 시나리오에 배치될 수 있다고 지적한다.
주목할 점은 Anthropic이 정부와의 협력 문을 완전히 닫지 않았다는 것이다. Amodei는 더 엄격한 AI 안전 평가 프레임워크를 개발 중이며, 모델의 안전 성능이 군사 응용 요건을 충족하면 재고할 수 있다고 명시했다. 이 전략적 「일시적 거부」는 상업적 현실주의와 안전 원칙 사이의 균형을 모색하는 Anthropic의 노력을 보여준다.
심층 분석과 업계 전망
거시적 관점에서 이 발전은 AI 기술이 실험실에서 산업 응용으로 가속 전환하는 트렌드를 체현한다. 업계 분석가들은 2026년이 AI 상업화의 핵심 전환점이 될 것으로 광범위하게 인식하고 있다. 기술 측면에서는 대규모 모델의 추론 효율이 향상되고 배포 비용이 하락하여 더 많은 중소기업이 AI 역량에 접근할 수 있게 되었다.