Palantir第九届AIPCon演示:用Anthropic Claude为军方生成战争方案,AI军事化争议白热化

美国国防科技巨头Palantir在第九届AIPCon大会(3月12日)上公开演示了如何利用Anthropic的Claude大语言模型辅助军事决策——AI系统可实时分析情报数据、识别复杂模式,并向军事分析师提出战术响应方案和下一步行动建议。演示聚焦Project Maven智能监控系统,该系统已部署到美军多个部门,用于缩短从目标识别到打击的决策链路时间。这一演示在AI伦理界引发强烈反响:Anthropic明确拒绝向五角大楼提供无限制军事用途AI(并因此被联邦机构停用),但其模型却通过Palantir这一中间商间接进入了军事场景。这暴露了AI供应链治理的深层漏洞——模型开发商的使用限制条款在多级分销中可能被架空。AI武器化的边界与责任归属问题,已成为2026年最紧迫的科技伦理议题。

美国国防科技巨头Palantir在其第九届年度AIPCon大会上展示了一套引发巨大争议的AI军事应用系统,该系统使用Anthropic的Claude大语言模型为军方指挥官自动生成战争行动方案。这一演示在科技界和政策圈引发了关于AI军事化伦理边界的激烈辩论。

据NDTV报道,Palantir在大会上向约500名来自美国国防部、北约盟国军方和国防承包商的与会者展示了其最新版本的AIP(AI Platform)系统。在现场演示中,一名操作员向系统输入了一个虚拟战场场景——包括敌方兵力部署、地形数据、己方可用资源和作战目标——系统在约90秒内生成了三套完整的作战方案,每套方案都包含部队调动建议、火力打击时序、后勤补给路线和预估伤亡分析。

The Register的深度报道揭示了更多技术细节。Palantir的AIP系统使用了经过军事领域微调的Claude模型,并通过RAG(检索增强生成)技术接入了大量军事条令、历史战例和地理情报数据库。系统生成的方案不仅包含文字描述,还自动生成了战场态势图和时间线可视化。Palantir首席技术官Shyam Sankar在演讲中强调,「系统生成的方案始终需要人类指挥官审核批准后才能执行,AI的角色是参谋而非决策者。」

然而,这一说辞未能平息批评声浪。The Verge报道,Anthropic CEO Dario Amodei在被记者追问时表示,Anthropic的使用政策(Acceptable Use Policy)明确禁止将Claude用于「可能导致人身伤害的武器系统」,但承认在「辅助性军事分析」的边界界定上存在灰色地带。Anthropic随后发表声明,表示正在审查Palantir的具体使用方式是否符合其政策条款。

Defense One的分析文章指出,Palantir此次演示的时机并非巧合。美国国防部正在加速推进「联合全域指挥与控制」(JADC2)计划,旨在用AI整合陆海空天网电各域的作战信息。Palantir已获得了超过30亿美元的国防合同,是五角大楼AI转型战略的核心承包商之一。演示的目的不仅是展示技术能力,更是在新一轮预算谈判前向国会和军方展示AI在军事决策中的实用价值。

404 Media的调查报道引发了更深层的伦理讨论。记者获取的内部文件显示,Palantir正在开发的下一代系统可能具备「自主更新作战方案」的能力——即根据实时战场态势变化自动调整建议,减少人类在决策循环中的参与程度。多位AI伦理学者对此表示严重关切。耶鲁大学技术与伦理中心主任Wendell Wallach警告:「从辅助决策到自主决策的滑坡可能比我们想象的更快。一旦指挥官习惯了AI生成的方案并开始不加修改地执行,所谓的人在回路就名存实亡了。」

国际层面的反应也很强烈。联合国秘书长古特雷斯重申了他对致命自主武器系统的反对立场,呼吁各国在2026年底前达成具有约束力的国际条约。中国外交部发言人在例行记者会上表示,中方「一贯反对将AI技术武器化」,敦促有关国家「负责任地使用AI技术」。红十字国际委员会也发表声明,要求在将AI应用于军事决策之前建立严格的法律审查机制,确保符合国际人道主义法的基本原则。

这场争议折射出的核心问题是:在AI能力快速提升的背景下,如何在军事应用和伦理约束之间划定清晰的红线?答案可能决定未来战争的面貌和人类社会的安全基础。

从历史和地缘政治背景来看,AI军事化并非新事物,但速度和深度正在质变。Defense One的时间线梳理显示:2020年美军的Project Maven首次将AI用于无人机图像分析(当时引发了Google员工的大规模抗议并导致Google退出合同),2023年以色列被报道使用AI系统「Lavender」辅助加沙行动的目标识别,而2026年Palantir的演示则将AI的角色从「数据分析」推进到了「作战方案生成」——这是一个质的飞跃。

国际军控界对此反应强烈。联合国AI军事应用特使在演示后发表声明,呼吁国际社会尽快制定「AI在军事决策中的角色边界协议」。红十字国际委员会(ICRC)的法律顾问指出:「当前的国际人道法假设战争决策由人类做出。如果AI开始参与规划可能导致平民伤亡的军事行动,现有法律框架将面临根本性挑战。」

资本市场的反应则截然相反。Palantir股价在AIPCon后的两个交易日内上涨了12%,分析师纷纷上调目标价。Palantir的2026财年军事AI合同总额已超过40亿美元,同比增长超过200%。华尔街的逻辑很简单:五角大楼2027财年预算中AI相关支出将达到130亿美元,而Palantir是最大的受益者之一。在利润与道德的天平上,资本市场毫不犹豫地选择了前者。这场围绕AI军事化的辩论注定会持续多年,但技术的列车已经开动,能否在不可逆之前建立有效的国际治理框架,是全人类面临的紧迫课题。