Anthropic被Pentagon列为"供应链风险",拒绝移除AI安全护栏
美国国防部长2月27日宣布将Anthropic列为"供应链风险",要求所有联邦机构6个月内停用其技术。起因是Anthropic拒绝撤除Claude的两条红线:禁止大规模国内监控和完全自主武器。尽管被禁,美军在3月初对伊朗行动中仍使用了Claude进行情报分析和目标识别。法律专家普遍认为该指定"法律依据薄弱",Anthropic已表示将提起法律挑战。讽刺的是,Claude因此事一度超越ChatGPT成为美国下载量第一的应用。
Anthropic被Pentagon列为"供应链风险":AI安全红线引发的行业地震
2026年2月27日,美国国防部长正式宣布将AI公司Anthropic列为"供应链风险",命令所有联邦政府机构在6个月内全面停止采购和使用Anthropic旗下的全部技术产品,包括大语言模型Claude及相关API服务。这一极为罕见、在美国科技监管史上也堪称史无前例的举措,在AI行业、法律界和政策圈引发了剧烈震荡,成为2026年迄今最具争议性的科技监管事件。
冲突起源:两条不可逾越的红线
此次事件的根源,在于Anthropic明确拒绝了国防部要求其撤除Claude模型中两项核心使用限制的要求。
第一条红线:严禁用于大规模国内监控。 Anthropic在其模型使用政策中明确规定,Claude不得被用于对公民进行系统性、大规模的国内监控活动,无论是通过舆情分析、社交媒体追踪还是生物特征识别等方式。这一限制直接挑战了部分联邦机构希望将AI整合进国内安全情报体系的设想。
第二条红线:严禁用于完全自主武器系统。 Anthropic同样明确禁止将Claude用于开发或部署"无需人类干预即可自主决定攻击目标"的武器系统。这一立场与国防部探索AI在高度自主化武器装备中应用的战略方向产生了根本性冲突。
Anthropic方面表示,这两条限制是公司成立之初便写入核心理念的底线,是任何商业利益或政治压力都无法动摇的道德边界。首席执行官Dario Amodei在声明中强调:"我们相信AI安全不是谈判筹码,而是我们存在的意义本身。"
矛盾与讽刺:禁令背后的执行悖论
然而,国防部的"全面禁用令"在实际执行层面暴露出令人瞠目的矛盾。据多家主流媒体3月初的报道,就在Anthropic被正式列入禁用名单后不久,美军在针对伊朗的军事行动中,仍然秘密调用了Claude进行情报分析和打击目标识别工作。
这一"一边禁止、一边偷用"的悖论性行为,引发了外界对该禁令实际执行力度的强烈质疑:如果Claude在军事情报领域真的如此不可或缺,那么所谓的"供应链风险"究竟指向何处?批评者认为,国防部的真实意图或许并不在于保护国家安全,而是施压迫使Anthropic在使用政策上作出让步。
法律争议:指定依据是否成立?
法律界对此次"供应链风险"指定的合法性普遍持怀疑态度。多位宪法学者和行政法专家指出,这一指定在程序上存在严重缺陷:Anthropic未获得提前告知,亦未获得正式听证机会,整个程序缺乏基本的正当程序保障。
更有专家指出,"供应链风险"这一法律框架通常适用于外国供应商或存在国家安全渗透风险的实体,将其适用于一家美国本土AI公司、且仅因后者坚持自身商业政策而拒绝修改产品,在法律上极为牵强。
Anthropic已正式宣布将通过法律途径发起挑战,预计将引发一场可能直达联邦上诉法院乃至最高法院的司法博弈。这场法律战不仅关乎Anthropic一家公司的命运,其判决结果将对政府能否以国家安全为由强制要求私营AI企业修改技术产品的内容和功能产生深远的先例意义。
意外效应:越禁越火的市场反转
在这场严肃的政治与法律博弈背后,市场却上演了一出颇具戏剧性的反转。受这一事件引发的高度关注和公众同情的推动,Claude应用的下载量在事件曝光后数日内暴涨,一度超越ChatGPT,登顶成为美国区App Store下载量排名第一的应用程序。
这一现象折射出公众对AI安全价值观的某种认同:当一家AI公司因坚守道德红线而遭到权力压制,反而赢得了大量用户的信任票。对于Anthropic而言,这场意外的公关胜利或许是这场风波中最出人意料的收获。
行业震荡:其他AI公司的连锁反应
这一事件如同一块投入平静水面的巨石,在整个AI行业激起了层层涟漪。Google、Meta、OpenAI、Microsoft等公司正在密切观察事态走向,评估自身政府合作策略的风险与边界。
部分AI公司选择更加灵活的姿态——不明确设置使用禁区,而是通过个案审查的方式应对政府需求;另一些则开始重新审视与国防合同的捆绑程度,以规避潜在的声誉风险。
与此同时,欧盟、英国、日本等主要经济体的AI监管机构也在密切关注此案,视其为制定本国AI治理框架的重要参照。这场围绕AI安全护栏的博弈,已经不再只是Anthropic与美国国防部之间的双边纠纷,而是演变为一个全球性的AI治理议题。
更大的命题:安全原则能否成为商业底线?
Anthropic事件的核心,是一个在AI大规模商业化时代愈发尖锐的根本性问题:当国家权力以安全为名要求移除AI系统的伦理约束时,企业能否、应否坚守?
这不仅是一个法律问题,更是一个关乎AI发展方向的价值观问题。Anthropic的选择,将这个问题以最直接、最戏剧化的方式摆在了所有AI从业者、监管者和公众面前——而它的答案,将深刻塑造未来数年AI行业的生态格局。