Anthropic拒绝为自主武器解禁AI,被美国国防部列为供应链风险
美国国防部3月3日将Anthropic列为"供应链风险",起因是该公司拒绝解除旗下Claude模型用于全自主武器及大规模监控的使用限制。这是美国首次对本土AI公司使用此类指定,五角大楼命令军方在180天内撤除相关技术,Anthropic随即提起联邦诉讼反击。
事件导火索:一纸"供应链风险"指定
2026年3月3日,美国国防部(Pentagon)对外宣布,将AI公司Anthropic正式列为"供应链风险"(Supply Chain Risk)——这是美国历史上首次将一家本土AI公司纳入这一通常专门针对华为等外国企业的黑名单机制。
这一决定的直接后果:凡是与五角大楼签有合同的承包商,必须在同等时限内停止使用Anthropic的产品;五角大楼随即于3月6日发出内部备忘录,要求各军事指挥部门在**180天内**从所有"关键系统"中移除Anthropic技术。
事件的核心争议,源于2025年7月的一份分类网络合作协议。谈判破裂的根源只有一个:Anthropic拒绝向军方豁免其Claude模型"使用条款"中关于两类场景的明确禁令——
- **全自主致命武器系统**:AI在无人类最终监督的情况下独立决定攻击目标
- **大规模国内监控**:基于政治立场、宗教信仰对平民实施系统性监控
五角大楼的立场同样清晰:军方需要能"合法使用"技术的完整权力,不能允许私营公司对国家安全工具划定限制。
Anthropic起诉国防部:首发法律炸弹
面对史无前例的打压,Anthropic选择了正面对抗法律战场。
2026年3月9日和10日,Anthropic接连在联邦法院提起两项诉讼,挑战"供应链风险"指定的合法性,并申请紧急暂停令。起诉书的核心论点包括:
第一,违宪报复。 Anthropic认为,五角大楼此举是针对公司公开倡导AI安全原则的"言论报复",违反了美国宪法第一修正案。
第二,违反行政程序法。 Anthropic指出,国防部在未经正当程序通知的情况下突然发出指定,违反了《行政程序法》(Administrative Procedure Act)规定的基本程序要求。
第三,恶例示范效应。 起诉书警告,若政府可以以"供应链风险"为由惩罚持有安全原则的AI公司,将对整个行业产生"寒蝉效应",迫使公司放弃任何可能与政府产生摩擦的道德立场。
Anthropic首席执行官Dario Amodei在公开声明中表示:
> "我们的'红线'不是商业谈判筹码,而是安全承诺的基石。接受豁免,意味着我们承认这些限制是可以交易的——而它们不是。"
OpenAI趁机补位
这场争端的另一个注脚,是竞争对手OpenAI的迅速行动。
据多家媒体报道,在Anthropic被列为风险后短短数天,OpenAI销售团队便与五角大楼接触,提出为军方分类网络提供ChatGPT替代解决方案。有消息指出,OpenAI已与国防部就部分原由Anthropic服务的项目达成初步协议。
这一"替补"行动引发了AI安全研究界的激烈批评。多名知名研究员在公开信中指出,OpenAI此举无异于"在同行坚守道德底线时从旁收割市场",对AI行业的整体安全文化造成不良示范。
争议焦点:谁有权定义AI的"使用边界"?
从更宏观的视角看,Anthropic vs. 国防部的冲突,触及了AI治理领域的一个根本性张力:**商业AI公司是否有权为政府客户设定不可谈判的道德边界?**
政府视角
五角大楼的立场代表了一种国家主权逻辑:军事技术的使用权不能受制于私人公司的伦理偏好。正如国防部发言人所说,"如果AI系统存在内嵌的政策冲突,将直接影响军事效能,这在国家安全情境下是不可接受的。"
Anthropic视角
Anthropic的立场则体现了一种"安全优先"逻辑:AI公司必须为自身技术的使用方式承担道德责任,即便面对最强势的客户。Anthropic的官方博文《我们对国防部的立场》明确表示,公司"不是在抗拒政府合作,而是拒绝在核心安全原则上妥协"。
法律学者的观察
哈佛法学院科技法专家Jennifer Choi在接受采访时指出,这一案件极可能进入联邦上诉法院,其判决将成为AI合同法的标志性判例,影响范围不仅限于军事领域,还将波及医疗、金融、执法等政府AI采购的全部场景。
商业层面:危机中的逆势增长
讽刺的是,深陷政治风波的Anthropic,商业表现依然亮眼。
据行业数据,Anthropic旗下编程代理工具的年化营收在2026年2月已达到**25亿美元**,较一年前增长近五倍。多家华尔街分析机构预测,Anthropic有望在2026年底超越OpenAI成为AI领域年收入最高的公司。
部分分析师认为,Anthropic的"抗压"姿态反而强化了企业客户对其品牌的信任:一家连军方压力都不屈服的供应商,在数据隐私和使用边界上更值得依赖。
花旗银行分析师在研报中写道:"Anthropic的法律困境对估值短期有压力,但'有原则的AI供应商'这一定位,中长期可能构成独特的护城河。"
投资方立场稳定
在指定发出后一周内,Google(持有Anthropic约15%股权)、Spark Capital等主要投资方相继公开表态支持Anthropic的立场。没有任何主要股东宣布减持,给市场传递了明确的稳定信号。
全球回响:欧洲警觉,中国观察
Anthropic事件在国际社会引发了多维度的反应。
欧洲方面,欧盟数字事务专员在社交媒体发文,认为此案印证了欧洲坚持"以人为本AI监管"的必要性。欧盟《AI法案》中对"高风险AI"的严格规定,事实上为类似争议提供了明确的法律框架,不会出现政府可以单方面解除使用限制的情况。
英国查塔姆研究所发布播客指出,这场冲突的本质是AI治理史上的第一场全球性价值观考验——争的不是技术能力,而是谁有权定义AI的道德边界。
中国官方媒体则将此事解读为"美国AI治理体系内生矛盾的暴露",认为美国私营AI公司在商业利益与政府压力之间的撕裂,暴露了其国家AI战略的系统性弱点。
180天倒计时:悬而未决的终局
截至3月8日,这场博弈的最终走向仍不明朗。
法院是否批准暂停令,将是最近期的关键节点。若法院支持Anthropic,国防部的清退指令将被暂时中止;若法院拒绝,军方的180天移除行动将按计划推进,部分依赖Claude的分析项目将面临被迫中断的困境。
无论结果如何,Anthropic vs. 五角大楼这一案例已被写入AI治理史:它是硅谷AI公司第一次以法律手段,正面捍卫自身技术的道德使用边界——对抗的,是世界上最强大的军事机构之一。
这场博弈的结果,将深刻影响AI公司与政府客户之间的权力格局,以及整个行业在安全与商业之间如何划定那条线。