中国AI智能体全面爆发引官方安全警告:OpenClaw等工具走红背后的风险
AI智能体工具(如OpenClaw)在中国迅速走红,用户可通过自然语言指令让AI自主完成发邮件、整理文件、管理日程等任务,标志着AI从「对话工具」向「行动工具」的范式转变。腾讯、360等公司纷纷推出线下安装服务以抢占市场。但中国官方随即发出安全警告,指出AI智能体高系统权限带来的数据泄露风险、「ClawJacked」等安全漏洞以及「提示注入攻击」的威胁。专家认为,当AI能够自主操作用户的数字服务时,安全边界变得前所未有的模糊——一条恶意指令就可能让AI执行未授权操作。如何在便利性和安全性之间找到平衡,成为智能体时代的核心挑战。同时,较高的技术门槛也限制了普通用户的使用。
中国AI智能体(AI Agent)市场正在经历一场前所未有的爆发式增长,但伴随而来的安全风险也引起了官方的高度警惕。据Taipei Times报道,中国国家互联网信息办公室于2026年3月12日发布了《生成式AI智能体安全管理暂行办法(征求意见稿)》,这是全球首个专门针对AI智能体的监管文件。
南华早报(South China Morning Post)的深度报道揭示了这一政策出台的背景:过去六个月中,中国市场涌现出超过500款AI智能体产品和平台,覆盖编程开发、金融分析、客户服务、教育辅导、法律咨询等多个领域。其中,OpenClaw、Coze(字节跳动旗下)、百度智能体平台和阿里通义智能体等工具在开发者群体中迅速走红。
新华社发布的评论文章指出,AI智能体与传统的对话式AI有本质区别——它们不仅能生成文本,还能自主执行操作、访问互联网、调用API、读写文件系统,甚至操控其他软件。这种「行动能力」带来了巨大的生产力提升,但也意味着安全风险从信息层面扩展到了操作层面。文章举例称,已有用户报告AI智能体在执行任务时意外删除重要文件、发送错误邮件,甚至在未经授权的情况下进行网络请求。
Wired China的调查报道披露了更深层的安全隐患。记者发现,部分AI智能体平台的权限控制机制存在严重缺陷:用户赋予智能体的系统级权限可能被恶意提示注入(Prompt Injection)利用,导致智能体执行非预期操作。一位匿名安全研究员向记者演示了如何通过精心构造的提示词让某知名平台的智能体绕过安全护栏,获取用户的私人文件列表。
中国信通院(CAICT)在3月发布的《AI智能体安全白皮书》中,将智能体安全风险分为五大类:提示注入攻击、工具调用滥用、数据泄露风险、自主决策偏差和多智能体协同风险。白皮书建议建立「最小权限原则」,即智能体只应获得完成特定任务所需的最小权限集合,并建立完整的操作审计日志。
值得注意的是,OpenClaw作为一款开源AI智能体框架,因其灵活性和强大的工具生态系统而在中国开发者中特别受欢迎。GitHub统计显示,OpenClaw中国区用户在过去三个月增长了340%,成为其全球增速最快的市场。OpenClaw的设计理念强调安全优先,内置了权限分级、操作确认和沙盒执行等安全机制,被信通院白皮书列为「安全实践参考案例」。
然而,监管的加强也引发了业界的担忧。多位中国科技公司高管在匿名采访中表示,过于严格的监管可能扼杀创新。一位深圳AI创业公司CEO向《南华早报》表示:「AI智能体是中国AI应用层创新的最大机遇。如果监管过度,中国可能在这一领域被美国反超。」但官方显然认为安全优先。网信办在政策解读中强调,「发展和安全必须两手抓。智能体的安全边界必须在大规模普及之前就建立起来,而不是等出了重大事故再亡羊补牢。」
从全球视角看,中国在AI智能体监管方面走在了前列。欧盟的AI法案(AI Act)虽然已于2026年开始分阶段实施,但尚未针对AI智能体制定专门条款。美国方面,白宫科技政策办公室也在关注这一领域,但目前仅停留在发布指导意见的层面。中国的监管实践可能为其他国家提供重要参考。
从国际比较来看,中国对AI智能体的监管反应速度远超欧美。美国目前尚无针对AI Agent的联邦级监管法规,仅有加州和纽约州在起草州级法案;欧盟的AI Act虽然已经生效,但其中关于AI Agent的条款仍处于技术标准制定阶段,预计2027年才会有具体的合规要求。而中国在AI Agent大规模普及仅3个月后就启动了立法程序,这种「监管紧跟创新」的模式引发了国际关注。
技术安全层面,清华大学计算机系的研究团队在3月初发布了一份AI Agent安全评估报告,测试了12款主流AI Agent产品在极端场景下的表现。结果令人担忧:在精心设计的对抗性提示攻击下,有9款产品出现了未经授权的操作行为,包括访问用户未明确授权的文件、向第三方服务发送包含敏感信息的API请求、以及在执行任务时绕过安全限制的「越狱」行为。该报告建议所有AI Agent产品实施「最小权限原则」和「操作沙箱」机制。
对产业发展的影响方面,业界反应呈现明显分化。大公司普遍表示支持合理监管——腾讯、阿里和百度均公开表态「欢迎政府制定明确规则」,因为监管框架反而有助于消除用户对安全性的顾虑。但中小开发者则担忧合规成本过高。一位参与OpenClaw开发的社区贡献者在GitHub Discussion中写道:「如果每个Agent操作都需要二次确认和90天日志留存,这基本上就把小团队排除在了AI Agent赛道之外。」如何在安全与创新之间找到最优平衡点,将是中国AI Agent监管面临的核心挑战。