An AI-Guided Strike Killed 150 Children. Anthropic Took the Pentagon to Court

이란 군사 막사 인근 공습으로 150명 이상의 어린이가 사망한 것으로 알려지며 AI 지원 표적 선정에 대한 검토가 강화됐습니다. Anthropic은 Claude의 안전 제한 제거를 거부한 것에 대해 국방부를 상대로 소송을 제기한 것으로 알려졌습니다.

배경

2026년 3월, 국제 안보 분야에서 단일 군사 작전을 넘어선 파급력을 가진 비극적 사건이 발생했습니다. 이란 호르무즈간주 미나브(Minab) 지역의 샤자레 타예베(Shajareh Tayyebeh) 여초등학교 인근에서 미사일 공격이 발생하여 165명에서 180명 사이의 사망자가 나왔으며, 이 중 대부분이 7세에서 12세 사이의 어린이였습니다. 이 공격은 오래된 정보로 인해 학교를 군사 시설로 오인한 결과로 추정되며, 미국 하원 의원들은 의사결정 과정에 'Maven 스마트 시스템'과 같은 AI 지원 표적 선정 시스템이 관여했는지 의문을 제기했습니다. 이 사건은 AI 기술이 전장에서 실험적 단계를 넘어 실제 살상 행위에 사용되면서 윤리적 위기가 현실화되었음을 보여줍니다.

동시에 미국 내에서도 법적 분쟁이 격화되고 있습니다. AI 안전성 연구의 선두주자인 Anthropic은 미국 국방부(DOD)를 상대로 두 건의 소송을 제기했습니다. Anthropic은 국방부가 자사의 핵심 대규모 언어 모델인 Claude에 대해 '공급망 위험' 등급을 지정하는 것을 거부한 데 항의하며, 이 조치가 자국내 대규모 감시 및 인간 감독 없는 자율 살상 무기 사용과 연결될 수 있다고 주장했습니다. 이 소송은 미국 국내 기업에 대해 국방부가 내린 이러한 지정이 unprecedented(전례 없는) 조치였다는 점에서 주목받으며, Microsoft, Google, Amazon 등이 Anthropic을 지지하는 의견서(amicus brief)를 제출하는 등 기술 기업들과 정부 간의 갈등이 표면화되었습니다.

심층 분석

이 두 사건은 표면적으로는 별개로 보이지만, AI 군사화 과정에서 '효율성'과 '윤리' 간의 구조적 모순이 극명하게 드러난 사례입니다. 군사 작전에서 AI 표적 선정 시스템은 방대한 센서 데이터를 처리하여 표적 발견부터 타격 실행까지의 시간, 즉 '살상 사슬(kill chain)'을 단축하는 것을 목표로 합니다. 그러나 이러한 속도 추구 과정은 종종 정확성과 윤리적 검증을 희생시킵니다. 미나브 학교 공격 사례에서 볼 수 있듯이, AI 시스템은 민간인과 군사 시설이 혼재된 복잡한 환경에서 비전투원을 고가치 표적으로 오인할 수 있으며, 이때 인간 운영자가 최종 확인이나 수정을 하지 못하면 치명적인 결과를 초래합니다. 이는 알고리즘의 편향성과 전장의 불확실성(전투 안개)이 결합된 참사로 이어졌습니다.

Anthropic과 국방부 간의 소송은 기술적 가치관 차이를 반영합니다. Anthropic은 Claude의 안전 제한 장치를 제거하는 것을 거부하며, 이는 모델의 오용을 방지하고 인간 가치와 부합하는 출력을 보장하기 위한 필수적인 장치라고 주장했습니다. 반면, 국방부는 특정 군사 상황에서 이러한 제한이 모델의 유연성과 실용성을 저해한다고 보았습니다. 이는 기술의 책임성과 설명 가능성(Explainability)을 중시하는 윤리적 관점과, 효율성과 적응성을 중시하는 군사의 실용주의 간 충돌입니다. 알고리즘의 '블랙박스'화가 진전될수록 의사결정 과정의 투명성이 떨어지고, 이로 인해 책임 소재를 추적하는 것이 어려워져 윤리적 위험은 더욱 증폭되고 있습니다.

산업 영향

이러한 사건들은 글로벌 방위格局, 기술 산업, 그리고 국제법 체계에 깊은 영향을 미치고 있습니다. Anthropic의 소송은 AI 개발자가 자신의 기술이 윤리 강령에 위배되는 군사 용도로 사용되는 것을 거부할 권리가 있다는 선례를 남겼습니다. 이는 다른 AI 기업들이 국방 기술 공급망 재구성을 고려하도록 유도할 수 있으며, 방위 계약업체들의 입지를 흔들고 있습니다. L3Harris와 Shield AI는 최근 인간 개입 없이 전자기 위협을 실시간으로 탐지하고 대응하는 무인 시스템의 능력을 시연하며 자율 작전의 잠재력을 과시했지만, 미나브 학교 공격의 비극으로 인해 이러한 기술의 확산은 강력한 여론의 저항에 부딪히고 있습니다.

국제 사회에서는 자율 무기 시스템에 대한 규제 요구가 고조되고 있습니다. 유엔 군축회의(CCW) 논의는 계속되고 있지만, 구속력 있는 조약 체결은 아직 요원한 상황입니다. EU AI Act 역시 군사 응용 분야를 명시적으로 제외하고 있어, 기술 발전과 규제 사이의 간극이 존재합니다. 이러한 공백은 기술 기업들에게 브랜드 평판과 리더십 시험대가 되고 있으며, 인간 감독 메커니즘이 완비되고 설명 가능성이 높은 시스템 개발 경쟁으로 패러다임이 전환되고 있습니다. 이는 단순한 기술 경쟁을 넘어, 윤리 기준과 법적 준수 능력을 갖춘 국가와 기업이 미래 국제 군축 협상에서 도덕적, 법적 우위를 점하게 될 것임을 시사합니다.

전망

향후 몇 가지 핵심 신호를 주시해야 합니다. 첫째, Anthropic 소송의 판결 결과는 AI 기업들이 군사 협력에 있어 설정할 수 있는 윤리적 경계와 법적 책임을 정의하는 기준점이 될 것입니다. 둘째, 국제 사회가 '인간 통제(Human-in-the-loop)' 원칙을 법제화하는 진전이 자율 무기 시스템의 발전 속도와 적용 범위를 결정할 것입니다. 셋째, 기술적으로는 군사 표적 선정에 적용 가능한 설명 가능 AI(XAI)의 발전과 더 견고한 인간 감독 메커니즘 설계가 윤리적 위기를 완화하는 데 핵심적인 역할을 할 것입니다.

마지막으로, 대중의 여론과 시민 사회의 감시 압력은 정부와 기업이 AI 군사화의 윤리적 비용을 재평가하도록 지속적으로 압박할 것입니다. 미나브 학교 공격의 비극은 잊혀져서는 안 되며, AI 거버넌스 체계 완성을 위한 촉매제가 되어야 합니다. 기술이 급속도로 발전하는 오늘날, 치명적 무력 결정에 있어 인간의 최종 통제권을 보장하는 것은 단순한 윤리적 요구를 넘어 글로벌 안보와 안정의 토대입니다. 정부, 기업, 학계, 국제 사회가 협력하여 책임감 있고 투명하며 지속 가능한 AI 군사 응용 생태계를 구축하는 것이 시급한 과제입니다.