五角大楼禁止Anthropic联邦使用:AI伦理红线与国防需求的正面碰撞
美国国防部正式宣布禁止在所有联邦系统中使用Anthropic的Claude系列AI模型,这一决定源于Anthropic CEO Dario Amodei持续的公开伦理立场——他多次拒绝将Claude用于军事用途,并公开批评AI武器化。五角大楼认为这种"不可预测的合作态度"构成了"供应链可靠性风险"。
禁令立即生效,影响范围涵盖国防部、情报机构及所有联邦承包商。此前,Anthropic的Claude在多个联邦机构的文档分析和情报摘要任务中已有广泛使用。五角大楼同时宣布加速采用OpenAI和Google的替代方案,两家公司已与国防部签署了数十亿美元的长期合同。
这一决定使Anthropic面临严峻的商业困境:美国联邦AI市场规模约120亿美元,失去这一市场意味着短期内的重大收入损失。但Anthropic的支持者认为,这种坚持伦理底线的立场可能在长期内成为竞争优势——尤其是在欧盟等高度重视AI伦理的市场。
五角大楼禁止Anthropic联邦使用:AI伦理与国家安全的正面碰撞
一、禁令的直接起因
2026年3月23日,美国国防部发布正式指令,禁止在所有联邦政府系统中使用Anthropic公司的Claude系列AI模型。这一禁令的适用范围极为广泛,涵盖国防部本部、国家安全局(NSA)、中央情报局(CIA)、国家侦察局(NRO)以及所有持有联邦安全级别合同的承包商。
禁令的直接导火索是Anthropic CEO Dario Amodei在2026年初的一系列公开声明。在达沃斯世界经济论坛上,Amodei明确表示:"Anthropic不会、也永远不会允许Claude被用于自主武器系统、目标选择或任何可能直接导致人员伤亡的军事应用。"他随后在《大西洋月刊》的长篇专访中进一步阐述了他对AI武器化的担忧,称"AI军备竞赛是人类面临的最危险的集体行动问题之一"。
五角大楼国防创新单元(DIU)在内部备忘录中将Amodei的立场描述为"不可预测的合作态度",并认为依赖一个可能随时基于伦理考量撤回服务的供应商构成了不可接受的"供应链可靠性风险"。备忘录特别指出,在2025年底的一次联合演习中,Anthropic拒绝了国防部将Claude用于战术情报分析的请求,这一事件成为五角大楼决策的关键触发点。
二、Anthropic在联邦市场的现状
禁令发布前,Claude已在联邦政府中建立了相当的使用基础:
- **国务院**:使用Claude进行外交电报分析和多语言文档翻译
- **国土安全部**:部署Claude用于网络威胁情报摘要生成
- **国防情报局**:试点Claude用于开源情报(OSINT)分析
- **联邦总务署(GSA)**:将Claude列入FedRAMP授权的云服务清单
据估计,Anthropic在联邦市场的年收入约为8-12亿美元,占其总收入的15-20%。禁令意味着这部分收入将在未来6-12个月内归零,因为现有合同中的终止条款允许政府以30天通知期解除合同。
三、OpenAI和Google填补真空
五角大楼在发布禁令的同时,宣布了与OpenAI和Google的扩大合作计划:
OpenAI:已与国防部签署一项价值48亿美元的五年合同,涵盖GPT系列模型在军事情报分析、后勤优化和网络安全领域的应用。OpenAI在2025年成立了专门的政府业务部门,由前五角大楼官员领导,并获得了最高级别的安全许可。值得注意的是,OpenAI已明确放弃了早期章程中"不将AI用于军事目的"的条款。
Google:通过Google Public Sector子公司,与国防部签署了35亿美元的云AI服务合同。Google在2024年悄然修改了其AI原则,删除了"不开发用于武器的AI技术"的承诺,为政府合同铺平了道路。Google的Project Maven(军事AI项目)在经历了2018年的员工抗议后,已在新架构下重新启动。
四、120亿美元联邦AI市场的格局变化
美国联邦AI市场是全球最大的政府AI采购市场,2026年预计总规模约120亿美元,其中国防和情报领域占60%以上。Anthropic的退出将重新分配这一市场的份额:
- OpenAI预计将获得最大份额,其政府合同总额可能超过80亿美元
- Google/Alphabet通过云AI和Project Maven占据约25-30亿美元
- Palantir、Anduril等国防科技公司在专业领域保持份额
- Microsoft通过Azure Government和与OpenAI的合作间接受益
五、Amodei的伦理立场:短期代价与长期博弈
Amodei的决定在AI行业内部引发了深刻的分歧。批评者认为这是"自毁前程的理想主义"——放弃120亿美元的市场机会将削弱Anthropic的竞争力和研发资金,最终反而不利于安全AI的发展。OpenAI CEO Sam Altman在一次私下场合暗示:"你不能在场外影响比赛规则。"
但支持者指出,Amodei的立场正在为Anthropic建立一个独特的品牌价值:
欧盟市场机遇:欧盟对AI伦理的重视使得Anthropic在欧洲市场具有天然优势。欧盟委员会已经在AI法案的实施指南中多次引用Anthropic的Constitutional AI方法论作为"负责任AI"的示范案例。多个欧盟成员国政府已表示倾向于在政府AI采购中优先考虑Anthropic。
企业ESG需求:越来越多的企业在选择AI供应商时将伦理记录作为评估因素。Anthropic的立场使其在金融、医疗和教育等对伦理敏感的行业中更具吸引力。
人才吸引力:AI研究者中有相当比例的人对军事AI应用持反对态度。Anthropic的立场使其在吸引顶尖AI人才方面保持优势。
六、更深层的问题:AI公司有权说"不"吗?
这一事件引发了一个更根本的问题:AI公司是否有权基于伦理考量拒绝政府合同?在美国法律框架下,企业确实有权选择客户,但联邦政府作为最大单一买家,拥有巨大的市场影响力。五角大楼的禁令实质上是对Anthropic"伦理不合作"的惩罚,向其他AI公司发出了明确信号:与军方合作是获取联邦市场准入的前提条件。
这种"合作或出局"的逻辑可能对AI行业的多元化发展产生深远影响。如果所有希望进入联邦市场的AI公司都必须接受军事应用,那么"负责任AI"开发将只能存在于商业市场中,而政府AI系统将失去来自伦理导向公司的制衡和监督。