Anthropic vs 펜타곤: AI 군사 사용 금지를 둘러싼 법정 다툼 격화
2026년 3월 25일, Anthropic은 캘리포니아 연방법원에서 국방부가 부과한 '공급망 위험' 지정 취소를 위한 긴급 금지 명령을 신청했다. 이 분쟁은 Anthropic이 자율 무기 개발 및 대규모 국내 감시에 Claude AI 사용을 거부한 데서 비롯됐다. 트럼프 대통령은 즉시 모든 연방 기관에 Anthropic 제품 사용 중단을 명령하고 6개월 전환 기간을 부여했다.
심리 과정에서 담당 판사는 국방부의 의도에 직접 의문을 제기하며 이 지정이 "Anthropic을 무력화하려는 시도처럼 보인다"고 밝혔다. Anthropic은 헌법적 권리(표현의 자유·적법 절차) 침해를 주장하며 워싱턴 DC 항소법원에서도 별도 소송을 제기하고 있다.
이 사건은 AI 기업이 군사 계약에서 윤리적 한계를 설정할 권리가 있는지에 대한 역사적인 사법 판단으로, 미국 AI 거버넌스의 미래를 규정할 수 있는 선례를 남길 것으로 기대된다.
Anthropic vs 펜타곤: AI 군사 사용을 둘러싼 역사적 법정 다툼
사건의 경위
2026년 3월 25일, AI 기업 Anthropic은 캘리포니아 연방법원에 출두하여 국방부(펜타곤)가 부과한 '공급망 위험' 지정의 일시 중단을 요구하는 긴급 금지 명령을 신청했다. 이 지정은 사실상 모든 연방 정부 기관이 Anthropic의 제품 및 서비스를 구매하는 것을 금지하는 조치다.
트럼프 대통령은 즉시 모든 연방 기관에 Anthropic 기술 사용을 즉각 중단하라고 명령했으며, 기존 도입 건에 대해서는 6개월간의 단계적 철수 기간을 부여했다.
분쟁의 핵심은 Anthropic의 서비스 이용 약관에 있다. 이 약관은 Claude AI를 자율 치명적 무기 시스템 개발, 대규모 국내 감시, 신체적 위해를 초래할 수 있는 군사 응용에 사용하는 것을 명시적으로 금지하고 있다. 국방부가 이 분야에서 Claude를 배치하려 했을 때 Anthropic이 약관 수정을 거부하자, 국방부는 2026년 3월 초 Anthropic을 '국가 안보에 대한 공급망 위험'으로 지정했다. 이 지정은 통상 외국 적대 기업에만 적용되는 것이다.
법정 공방
심리 과정에서 담당 연방 지방법원 판사는 국방부의 동기에 직접 의문을 제기했다. 판사는 이 '공급망 위험' 지정이 "Anthropic을 무력화하려는 시도처럼 보인다"고 밝히며 공개적인 AI 안전성 입장에 대한 보복적 조치일 가능성을 시사했다. 이 발언은 Anthropic에게 중요한 법적 우위를 제공했다.
Anthropic의 주요 주장:
- 지정은 합법적인 상업적 권리 행사에 대한 불법적이고 보복적인 정부 행위
- 사기업으로서 자사의 가치관과 AI 안전 원칙에 따라 제품 사용 조건을 설정할 헌법상 권리 보유
- 이 지정은 수정헌법 제1조(표현의 자유) 및 제5조(적법 절차)를 침해
- 지정으로 인한 평판 손해는 즉각적이고 심각하며 회복 불가능하여 전 세계 상업 고객과의 수십억 달러 계약에 영향
- 윤리적 가드레일을 유지하는 AI 기업은 사회적으로 긍정적인 기능을 수행하며 안보 위협이 아님
국방부의 주요 주장:
- 방위 수요에 대응을 거부하는 AI 기업은 정당한 공급망 안보 위험을 구성
- AI는 국가 안보의 핵심이며 정부는 민간 기업의 일방적인 제한을 허용할 수 없음
- 국방부의 조치는 Anthropic의 상업적 행위와 계약 조항 거부를 대상으로 한 것이지 언론을 표적으로 한 것이 아님
- 군은 조달한 기술을 모든 합법적 목적에 사용할 유연성을 보유해야 함
Anthropic은 또한 워싱턴 DC 연방항소법원에서 민간 정부 계약으로부터의 잠재적 배제에 관한 별도 소송도 제기했다.
업계 충격과 각계 반응
이 소송은 실리콘밸리 전체에 충격을 주었으며, 모든 주요 AI 기업이 방위 부문과의 관계를 재검토하게 만들었다.
구글, OpenAI, 메타 등 정부·국방부와 다양한 계약을 유지하고 있는 기업들은 판결을 주시하고 있다. Anthropic이 승소하면 방위 계약에서 윤리적 한계를 설정하는 AI 기업의 권리를 지지하는 법적 선례가 된다. 펜타곤이 승소하면 윤리적 가드레일을 포기해야 하는 압력이 생기며, 정부 계약을 검토 중인 AI 스타트업의 전략적 판단에 직접적인 영향을 미친다.
가톨릭 옹호 단체들은 이례적으로 법정 조언자 의견서를 제출해 Anthropic을 지지했으며, 회사의 윤리적 제약이 인간 존엄성의 기본 가치와 일치한다고 주장했다.
더 넓은 역사적 맥락
이 소송이 제기하는 질문은 기술 기업과 정부 관계에서 근본적인 철학적 과제를 보여준다.
AI 기업은 자사 기술의 최종 사용 목적에 대해 법적·도덕적 책임을 지는가? 정부는 어느 범위까지 민간 기업에 자신의 필요에 응할 것을 강요할 수 있는가? 이 질문들에 대한 사법부의 답변은 앞으로 수십 년간의 AI 거버넌스 방향을 규정하게 될 것이다.
2026년 국방수권법(NDAA)은 이미 방위·정보 기관이 조달하는 AI에 대한 엄격한 공급망 및 보안 요건을 의무화하고 있어, 이런 유형의 분쟁은 AI 거버넌스 논의의 일상이 될 것으로 예상된다.
법학 전문가들은 이 사건이 결국 대법원까지 올라갈 가능성이 높다고 보며, 그 판결은 AI 시대의 기업 윤리와 국가 안보의 경계를 획정하는 이정표가 될 것이다.