国防部长赫格塞斯将Anthropic列为供应链风险

美国国防部长皮特·赫格塞斯(Pete Hegseth)正式签署命令,将Anthropic列为"供应链风险"实体,这是拜登-特朗普执政交接以来针对AI公司最具实质性的政府行动之一。

根据这项指定,联邦机构在采购AI服务时将被要求评估并可能避免使用Anthropic的产品,这实际上相当于将Claude系列模型排除在政府合同之外。该指定援引了对Anthropic数据处理实践、外国投资背景以及模型输出"不可预测性"的关切。

这一举措被多位分析人士解读为特朗普政府对AI产业实施更广泛管控的信号弹。与直接下令禁止不同,"供应链风险"的指定给予各机构更大的解释空间,同时也制造了足够的不确定性来阻止Anthropic进入政府市场。

Anthropic方面对此表示强烈反对,称该指定"在政治上出于动机且缺乏事实依据"。公司的法律团队已开始寻求法律救济。然而,短期内这一指定已经造成实质性影响:据报道,多家正在评估Claude的联邦机构已经暂停了采购程序。

这一事件引发了更广泛的行业担忧:政府是否可以通过类似的行政手段对其他AI公司施压?

什么是"供应链风险"指定?

"供应链风险"(Supply Chain Risk)是美国政府用于限制被认为对国家安全构成威胁的供应商的一种行政工具。此前,这一工具主要被用于华为、中兴等中国科技公司——将其应用于一家在硅谷土生土长的美国AI初创公司,在历史上尚属首次。此举标志着特朗普政府对AI产业的管控手段进入了一个新的、更具侵略性的阶段。

国防部长皮特·赫格塞斯(Pete Hegseth)于2026年2月底正式签署命令,将Anthropic列为"供应链风险"实体。这是拜登-特朗普政权交接以来针对AI公司最具实质性的政府行动之一,引发了科技行业、法律界和政策研究者的广泛关注。

指定的法律依据与实际影响

根据《联邦采购安全委员会法》(Federal Acquisition Supply Chain Security Act,FASCSA),被指定为供应链风险的供应商将面临以下具体限制:

  • **采购评估要求**:联邦机构在采购AI服务时须经过额外的安全评估程序,实际上大幅提高了使用Claude的门槛
  • **涉密项目限制**:涉密项目原则上不得使用被指定实体的产品,这意味着Claude系列模型将被系统性排除在国防、情报等高价值合同之外
  • **现有合同审查**:已有合同可能面临重新审查或提前终止,造成持续的不确定性

短期内,这一指定的影响已经显现。据The Verge和多家科技媒体报道,国防部高级研究计划局(DARPA)、国家安全局(NSA)及至少三个军种的IT采购部门已经暂停了与Anthropic的谈判或评估程序。这对于一直希望开拓政府市场的Anthropic来说,意味着一扇本就半开的大门被彻底关上。

为什么是Anthropic?官方与非官方理由

官方声明中提及的理由主要包括三点:

其一,对Google和Amazon大量持股的顾虑。由于两家科技巨头分别持有Anthropic约15%至20%的股份,政府担忧存在数据访问风险——这一理由颇具讽刺意味,因为无论OpenAI还是其他AI公司,同样有着深厚的大型科技公司背景。

其二,Claude模型在某些测试场景下出现"不符合预期"的输出。这一模糊的技术理由被广泛认为不具备充分的法律支撑,也缺乏公开的技术验证。

其三,这是最广泛流传的解读:这是特朗普政府对Anthropic拒绝参与某些国防项目的政治报复。此前,Anthropic明确拒绝了部分涉及自主武器系统的合作请求,坚持其"负责任扩展政策"(Responsible Scaling Policy,RSP)中关于不协助开发大规模杀伤性武器的承诺。多位前政府官员私下证实,这一指定更多是政治信号,而非基于充分的技术或安全评估。

与华为先例的对比

将一家美国本土公司与华为、中兴并列处理,其象征意义远超实际效力。华为被列为供应链风险,依据的是其与中国军方和情报机构的深度关联;而Anthropic作为一家受美国法律约束、在美国境内运营的公司,适用同一行政工具,在法律界引发了对程序正当性的广泛质疑。

行业先例与寒蝉效应

这一指定最令业界担忧的,并非其对Anthropic的直接影响,而是它所开创的危险先例。如果政府可以以如此低的门槛将AI公司列为供应链风险,其他初创公司将如何在坚守技术原则的同时维持与政府的关系?

电子前沿基金会(EFF)和美国公民自由联盟(ACLU)等数字权利组织已发表声明,批评这一做法为"行政审查的延伸",呼吁国会就政府采购中AI供应商的指定设立明确的程序性保护机制,防止行政权力被用于打压持有不同技术立场的企业。

对整个AI行业而言,这一事件传递出一个清晰的信号:如果不愿配合政府的某些需求,可能面临行政层面的打压。这种压力将迫使更多AI公司在商业利益和技术原则之间做出艰难的权衡——而往往,商业利益会胜出。

Anthropic的反击策略

Anthropic正在采取多管齐下的策略应对这一危机:

法律层面:公司已与多位前政府律师合作,寻求通过行政法院撤销这一指定。法律团队认为,该指定缺乏充分的事实依据,且违反了正当程序原则。然而,行政法律诉讼周期漫长,短期内难以取得实质成果。

政治层面:Anthropic正在加紧游说国会,寻求立法层面的保护。公司已聘请多名前国会幕僚和政策顾问,试图在两党中建立支持联盟,特别是针对那些对政府过度干预科技产业持保留态度的议员。

公关层面:公司发表公开信,强调Anthropic作为美国本土企业的身份、其对国家竞争力的贡献,以及在AI安全领域的领导地位。CEO Dario Amodei亲自出席多个媒体场合,试图重新定义公众对Anthropic安全立场的认知。

业务层面:加速拓展非政府的企业和消费者市场,特别是医疗健康、金融合规和教育科技领域——这些行业对AI安全的要求与Anthropic的产品特性高度契合。

更大棋局中的Anthropic

这场博弈的结果将在很大程度上取决于特朗普政府是否将此视为一个孤立的政策决定,还是更广泛AI监管战略的组成部分。目前的种种迹象显示,后者的可能性更大:白宫已经开始讨论对"不配合国家安全目标"的AI公司建立更系统性的限制框架。

对Anthropic而言,这场危机的核心教训或许是:在当前的地缘政治气候下,纯粹的技术立场无法独立于政治环境而存在。如何在维护创始愿景的同时,找到与政府共存的方式,将是公司未来最重要的战略命题。