중국 AI 에이전트 폭발적 성장에 공식 보안 경고: OpenClaw 인기 이면의 위험

OpenClaw 등 AI 에이전트가 중국에서 폭발적으로 확산, 자연어 작업 자동화 실현. 그러나 당국은 데이터 유출, 프롬프트 인젝션 공격 등 보안 위험을 경고.

배경

2026년 3월, 중국 AI 에이전트 시장이 전례 없는 폭발적 성장을 이루면서 당국의 강력한 보안 경보가 발령되었습니다. 중국 국가인터넷정보판공실(CAC)은 2026년 3월 12일 '생성형 AI 에이전트 보안 관리 잠정 조치(의견 수렴 초안)'를 발표했으며, 이는 전 세계적으로 AI 에이전트를 전문적으로 규제 대상으로 삼은 최초의 정책 문서입니다. 이 시점부터 OpenClaw, ByteDance의 Coze, Baidu의 에이전트 플랫폼, Alibaba의 통이 에이전트 등 500개 이상의 AI 에이전트 제품이 프로그래밍, 금융 분석, 고객 서비스, 법률 자문 등 다양한 분야에서 빠르게 확산되었습니다. 특히 OpenClaw는 오픈소스 기반의 유연성과 강력한 도구 생태계로 인해 중국 개발자들 사이에서 폭발적인 인기를 끌었으며, GitHub 통계에 따르면 지난 3개월 동안 중국 사용자 기반이 340% 성장하여 전 세계적으로 가장 빠르게 성장하는 시장이 되었습니다.

이러한 성장 배경에는 AI가 단순한 '대화 도구'를 넘어 '행동 도구'로 패러다임이 전환되고 있다는 사실이 있습니다. 신화사(신화사)의 논평은 AI 에이전트가 텍스트 생성을 넘어 인터넷 접근, API 호출, 파일 시스템 읽기 및 쓰기, 다른 소프트웨어 제어 등 자율적인 작업 실행 능력을 갖추고 있다고 지적했습니다. 이러한 '작업 능력'은 생산성 향상에 막대한 기여를 하지만, 동시에 보안 위험이 정보 층에서 운영 층으로 확대됨을 의미합니다. 실제로 일부 사용자는 AI 에이전트가 작업을 실행하는 과정에서 중요한 파일을 실수로 삭제하거나, 오류가 있는 이메일을 발송하거나, 승인되지 않은 네트워크 요청을 수행하는 사례를 보고했습니다.

심층 분석

AI 에이전트의 보안 위협은 단순한 버그를 넘어 구조적인 취약점을 내포하고 있습니다. 중국 정보통신연구원(CAICT)은 3월에 발표한 'AI 에이전트 보안 백서'에서 에이전트의 보안 위험을 프롬프트 인젝션 공격, 도구 호출 남용, 데이터 유출 위험, 자율적 의사결정 편차, 다중 에이전트 조정 위험 등 5가지 주요 유형으로 분류했습니다. 특히 위어드 차이나(Wired China)의 조사 보도에 따르면, 일부 AI 에이전트 플랫폼의 권한 제어 메커니즘에는 심각한 결함이 있었습니다. 사용자가 에이전트에게 부여한 시스템 수준의 권한이 악의적인 프롬프트 인젝션을 통해 악용될 수 있으며, 이는 에이전트가 의도치 않은 작업을 수행하도록 만들 수 있습니다. 한 익명의 보안 연구원은 기자에게 신중한 프롬프트 설계가 어떻게 유명 플랫폼의 에이전트가 보안 가드레일을 우회하여 사용자의 개인 파일 목록에 접근할 수 있는지 시연했습니다.

기술적 관점에서 현대 AI 보안 솔루션은 '수동 방어'에서 '능동 방어'로 전환되고 있습니다. CAICT 백서는 '최소 권한 원칙'을 확립할 것을 권장하며, 에이전트가 특정 작업을 완료하는 데 필요한 최소한의 권한만 부여받고 포괄적인 작업 감사 로그를 남겨야 한다고 강조했습니다. 오픈소스 AI 에이전트 프레임워크인 OpenClaw는 권한 계층화, 작업 확인, 샌드박스 실행 등의 내장 보안 메커니즘을 갖추고 있어 CAICT 백서에서 '보안 관행 참조 사례'로 인용되기도 했습니다. 그러나 칭화대학교 컴퓨터과학부 연구팀이 3월 초 발표한 보고서에 따르면, 12개 주요 AI 에이전트 제품을 극한 시나리오에서 테스트한 결과, 9개 제품이 적대적 프롬프트 공격 하에서 승인되지 않은 작업 행위를 보였습니다. 이는 파일 접근, 민감 정보가 포함된 API 요청 전송, 보안 제한 우회 등 '저널브레이크' 행위가 포함되었습니다.

산업 영향

이 사건은 AI 산업 생태계에 광범위한 연쇄 반응을 일으키고 있습니다. 대규모 기업들은 합리적인 규제를 환영하는 반면, 중소기업과 개발자들은 과도한 규정 준수 비용에 우려를 표명하고 있습니다. Tencent, Alibaba, Baidu는 모두 "명확한 규칙을 설정하는 정부를 환영한다"며 규제 프레임워크가 사용자의 보안에 대한 우려를 완화하는 데 도움이 된다고 밝혔습니다. 반면, OpenClaw 개발에 참여한 한 커뮤니티 기여자는 GitHub Discussion에서 "모든 에이전트 작업이 2차 확인과 90일 로그 보관을 요구한다면, 이는 소규모 팀을 AI 에이전트 트랙에서 배제하는 것과 같다"며 우려를 제기했습니다. 이는 보안과 혁신 사이의 최적 균형을 찾는 것이 중국 AI 에이전트 규제가 직면한 핵심 과제임을 시사합니다.

글로벌 관점에서 중국의 규제 대응은 유럽과 미국보다 훨씬 빠릅니다. EU의 AI법은 2026년에 단계적 시행에 들어갔지만, 아직 AI 에이전트를 대상으로 한 구체적인 조항을 포함하지 않고 있습니다. 미국의 경우 백악관 과학기술정책실(OSTP)이 이 분야를 모니터링하고 있지만, 현재는 가이드라인 발표 수준에 머물러 있습니다. 중국은 AI 에이전트가 대량으로 확산된 지 3개월 만에 입법 절차를 시작했으며, 이러한 '혁신에 밀착된 규제' 모델은 국제적인 주목을 받고 있습니다. 중국 기업들은 더 낮은 비용, 더 빠른 반복 속도, 현지 시장 요구에 더 부합하는 제품 전략을 통해 차별화된 경로를 모색하고 있으며, DeepSeek, 통이 천문, Kimi 등 국산 모델의 급부상은 글로벌 AI 시장 구도를 바꾸고 있습니다.

전망

단기적으로(3-6개월), 경쟁사들의 빠른 대응이 예상됩니다. AI 산업에서는 주요 제품 출시나 전략 조정이 수주 내에 경쟁사의 대응을 유발하며, 이는 유사 제품의 가속화된 출시나 차별화 전략 조정을 포함합니다. 또한 독립 개발자와 기업 기술 팀은 향후数月 내에 평가를 완료할 것이며, 그들의 채택 속도와 피드백이 이 사건의 실제 영향력을 결정할 것입니다. 관련 분야의 투자 활동은 단기적으로 변동성을 보일 수 있으며, 투자자들은 최신 발전 상황에 따라 각사의 경쟁 지위를 재평가할 것입니다.

장기적으로(12-18개월), 이 사건은 AI 능력의 상품화 가속, 수직 산업 AI 심화, AI 네이티브 워크플로우 재구성, 글로벌 AI 구도 분화 등의 촉매제가 될 수 있습니다. 모델 간 능력 격차가 좁아짐에 따라 순수한 모델 능력만으로는 지속 가능한 경쟁 우위가 되기 어렵고, 산업별 전문 지식(Know-how)을 갖춘 회사가 우위를 점할 것입니다. 또한 AI가 기존 프로세스를 보완하는 것을 넘어, AI 능력을 중심으로 전체 워크플로우가 재설계될 것입니다. CAC는 정책 해석에서 "개발과 보안을 함께 추진해야 하며, 에이전트의 안전 경계는 대규모 채택 후에 사후 조치를 취하는 것이 아니라 채택 전에 확립되어야 한다"고 강조했습니다. 이 균형 잡힌 접근 방식이 중국 AI 에이전트 산업의 지속 가능한 성장과 글로벌 리더십 확보의 열쇠가 될 것입니다.