Anthropic与五角大楼2亿美元合同僵局:联邦法官首轮裁决支持AI公司

Anthropic与美国国防部围绕一份价值2亿美元的AI合同展开激烈对峙。Anthropic明确拒绝其Claude模型被用于大规模国内监控或全自主武器系统,联邦法官在首轮裁决中站在Anthropic一边。这起纠纷标志着AI伦理从理论走向法律实践的重要转折点——一家商业AI公司首次在法律层面成功对抗军方的AI使用范围。事件引发连锁反应,部分美国联邦机构已报告停止使用Claude模型。这场博弈的走向将深刻影响未来军事AI采购的伦理红线与商业AI公司的议价权。

Anthropic与五角大楼2亿美元AI合同僵局:伦理红线首次在法庭胜出

事件全景

2026年3月,美国人工智能公司Anthropic与美国国防部之间围绕一份价值2亿美元的AI合同爆发了一场前所未有的对峙。这不仅仅是一场商业纠纷——它标志着AI伦理原则首次在美国联邦法庭上被正式检验和维护。

争端核心

Anthropic在合同谈判中划定了两条红线:第一,Claude模型不得被用于对美国公民的大规模国内监控;第二,Claude不得被整合进全自主武器系统。国防部的立场则是,AI公司不应限制军方对技术的使用方式,要求Anthropic接受"任何合法用途"条款并移除相关安全限制。

Anthropic拒绝了这一要求。随后,特朗普总统和国防部长Pete Hegseth公开切断与Anthropic的联系,将该公司列为"供应链风险"——这一标签通常仅用于涉嫌间谍活动的外国企业。所有联邦机构被指示停止使用Claude。

关键转折:法庭裁决

Anthropic随即提起诉讼。联邦法官在首轮裁决中站在了Anthropic一边,认为AI公司有权在合同中设定伦理使用条款。这是美国法律史上首次有商业AI公司成功在法律层面对抗军方的AI使用范围主张。

值得注意的是,在国防部公开将Anthropic定性为"国家安全威胁"的同一天,其副部长私下发邮件给Dario Amodei表示双方在争议问题上"非常接近"。公开表态与私下沟通之间的巨大落差,揭示了这场争端背后更复杂的政治博弈。

市场连锁反应

ChatGPT单日卸载量暴涨295%,Claude一度登顶App Store下载榜。OpenAI机器人业务负责人因五角大楼合同公开辞职,其研究副总裁Max Schwarzer随后跳槽至Anthropic。Anthropic年初年化收入约90亿美元,到3月初据报已近翻倍至200亿美元。在企业客户中,付费使用Anthropic工具的美国公司比例从一年前的4%跃升至40%,同期OpenAI的企业支出份额从50%下降至27%。

行业影响与长期意义

法律先例效应:联邦法官的裁决为AI公司在军事合同中保留伦理限制提供了法律依据。商业竞争格局重塑:Anthropic的"拒绝"反而赢得了更大的市场份额,超过30名OpenAI和Google员工签署了支持Anthropic诉讼的法律简报。AI治理范式转变:这起事件证明AI伦理可以在法律框架内被检验和执行,而非仅停留在学术讨论。

案件仍在进行中,最终裁决可能需要数月。但Anthropic与五角大楼的对峙已经改变了AI行业的博弈规则。在AI技术日益被整合进国家安全体系的时代,谁来决定AI的使用边界——技术公司、军方还是法院——将成为未来十年最关键的治理议题之一。