OpenAI 로보틱스 책임자, 펜타곤 계약에 항의하며 사임
OpenAI 로보틱스·소비자 하드웨어 책임자 케이틀린 칼리노스키가 3월 8일 사임을 발표. 직접적인 이유는 회사와 미 국방부의 AI 협력 협정에 대한 강한 불만. 그녀는 소셜미디어에 "사법 감독 없이 미국 시민을 감시하고 인간 승인 없이 치명적 자율성을 갖는 것은 실제 받은 것보다 더 많은 심의가 필요한 레드라인"이라고 게시. 이는 OpenAI의 국방 분야 상업적 확장 전략에 직접적으로 도전하는 발언.
칼리노스키는 이전 Meta에서 전직했으며 로봇 실험실을 포함한 회사의 물리적 AI 프로젝트 구축을 담당했다. 그녀는 사임이 "사람에 대한 것이 아니라 원칙에 기반한 것"이라고 강조하며 CEO 샘 알트만과 팀에 대한 "깊은 존경"을 표명. 이러한 표현은 문제가 기업 거버넌스 프로세스에 있음을 시사—거래가 급속히 추진되어 충분한 내부 윤리 심의를 결여했다는 것.
OpenAI는 협정에 명확한 "레드라인"이 있다고 응답: 국내 감시에 사용하지 않고 자율 무기에 사용하지 않는다. 그러나 비평가들은 이러한 약속에 독립적 감시 메커니즘이 결여되어 있다고 지적. 이 사건은 경쟁사 Anthropic이 유사한 거래를 거부하여 Pentagon에 "공급망 리스크"로 지정된 후 발생하여 AI 업계의 군사화 문제에 대한 심각한 분열을 부각시키고 있다.
OpenAI 로보틱스 책임자, 펜타곤 계약에 항의하며 사임
사건 경위
2026년 3월 8일, OpenAI의 로보틱스·소비자 하드웨어 책임자 케이틀린 칼리노스키가 LinkedIn과 X에서 동시에 사임을 발표했다. 그녀의 성명은 간결하면서도 강력했다: "OpenAI에서 사임합니다. 로보틱스 팀과 우리가 함께 구축해온 작업을 깊이 걱정합니다. 이는 쉬운 결정이 아니었습니다."
칼리노스키의 사임은 2월 말 OpenAI와 미 국방부가 서명한 AI 협력 협정을 직접 겨냥하고 있다. 이 협정은 OpenAI의 AI 시스템이 국방부의 보안 컴퓨팅 환경에서 운영되는 것을 허용하며, 이는 미 정부가 첨단 AI 도구를 국가 안보 업무에 통합하려는 노력의 일환이다.
핵심 쟁점: 레드라인은 어디에 있는가?
칼리노스키는 공개 성명에서 두 가지 명확한 레드라인을 제시했다:
1. **사법 감독 없는 시민 감시**: 법원 승인 없이 AI를 사용하여 미국 시민을 감시하는 것
2. **인간 승인 없는 치명적 자율성**: 인간의 최종 결정 없이 AI 시스템이 치명적 행동을 실행하도록 허용하는 것
그녀는 이러한 "실제로 받은 것보다 더 많은 심의에 값하는" 문제들이 거래 추진 과정에서 성급히 건너뛰어졌다고 본다. 이는 국방 분야에서의 AI 응용에 대한 반대가 아니다—그녀는 명확히 "AI는 국가 안보에서 중요한 역할을 한다"고 명시했다—오히려 충분한 거버넌스 프레임워크 없이 성급히 추진하는 것에 대한 반대이다.
업계 배경: AI 군사화의 분수령
이 사건은 고립된 것이 아니다. 지난 2주 동안, AI 업계는 군사화 문제를 둘러싸고 전례 없는 동요를 경험했다:
- **Anthropic이 "공급망 리스크"로 지정**: 2월 말, Anthropic은 자사의 Claude 모델이 대규모 국내 감시와 자율 무기에 사용되는 것을 거부했기 때문에 국방장관 피트 헤그세스에 의해 공식적으로 "공급망 리스크"로 지정되었다—이 라벨은 보통 적대적인 외국 실체에만 사용된다
- **OpenAI가 공백을 신속히 메움**: Anthropic이 배제된 후, OpenAI는 신속히 Pentagon과 협정을 체결하여 "레드라인"이 있다고 약속했지만 상업적 계약을 획득했다
- **Google도 참여**: 국방부는 GenAIMil 플랫폼에서도 Google의 AI 시스템을 도입했다
OpenAI의 응답과 딜레마
OpenAI 대변인은 이 협정이 "책임감 있는 국가 안보 AI 사용을 위한 실행 가능한 경로를 만들면서 동시에 우리의 레드라인을 명확히 한다: 국내 감시를 수행하지 않고 자율 무기를 사용하지 않는다"고 응답했다. 그러나 이 응답은 세 가지 의문에 직면한다:
1. **약속의 실행 가능성**: 이러한 레드라인이 준수되고 있는지 누가 감독할 것인가? 현재 독립적인 제3자 감사 메커니즘은 존재하지 않는다
2. **정의의 모호성**: 협정에서 "국내 감시"와 "자율 무기"의 정확한 정의는 어떻게 규정되어 있는가?
3. **상업적 압력과 윤리의 충돌**: 경쟁사가 윤리적 입장을 고수하여 배제되었을 때, OpenAI는 상업적 이익을 선택했다
칼리노스키의 경력 배경
칼리노스키는 2024년 Meta에서 OpenAI로 이직했으며, 이전에는 Meta에서 증강현실 하드웨어 개발을 이끌었다. OpenAI에서는 팀 채용과 로봇 실험실 설립을 포함한 물리적 AI 프로젝트 구축을 담당했다. 그녀의 사임 성명에서는 "책임감 있는 물리적 AI" 작업을 계속할 것이라고 강조하여, 이 분야에 군사적 응용을 전제로 하지 않는 발전 경로가 여전히 있다고 시사했다.
심층적 영향
이 사건은 AI 업계가 공식적으로 "윤리적 분화기"에 진입했음을 나타낸다:
- **인재 이동의 새로운 차원**: 최고의 AI 인재들은 더 이상 급여와 기술 플랫폼만을 보는 것이 아니라 윤리적 입장이 직업 선택의 핵심 요소가 되고 있다
- **거버넌스 격차 노출**: 가장 유명한 AI 회사들도 정부 협력에 관여할 때 충분한 내부 윤리 심사 프로세스를 결여하고 있다
- **경쟁 구도 재편**: Anthropic은 윤리를 고수하여 처벌받았고, OpenAI는 타협하여 계약을 획득했다—이는 업계 전체에 위험한 신호를 보내고 있다
AI 업계의 종사자들과 관찰자들에게, 문제는 더 이상 AI가 군사화될 것인지가 아니라, 군사화 과정에서 누가 선을 긋고, 누가 실행하며, 누가 감독할 것인가이다.