AI引导的空袭炸死了150名儿童。Anthropic把五角大楼告上了法庭
AI在军事领域的应用引发前所未有的伦理危机。伊朗南部一军事营地附近遭受空袭,据报道造成超过150名儿童死亡,矛头指向AI辅助目标选择系统在致命武力决策中缺乏充分的人类控制。与此同时,Anthropic据报向美国国防部提起诉讼,原因是五角大楼拒绝移除其AI模型Claude的安全限制。这两起事件凸显了AI军事化进程中「人在回路中」原则正在被侵蚀的危险趋势。L3Harris与Shield AI近日成功演示了无人系统在无人干预情况下实时探测和响应电磁威胁的能力,进一步模糊了自主作战的边界。国际社会对AI武器的伦理监管呼声达到新高。
AI战争伦理危机:从米纳布小学爆炸到Anthropic起诉五角大楼
背景:AI军事化的加速与反弹
2026年,AI在军事领域的应用已从实验阶段进入战场实战。以色列-美国对伊朗的军事行动成为「AI辅助战争」的最新试验场,也成为引发全球AI伦理争议的导火索。这一系列事件揭示了一个根本性矛盾:AI能力的快速提升正在超越人类对其军事应用的道德监管和法律框架建设的速度。
事件一:米纳布女子小学空袭——AI目标识别的致命代价
2026年2月28日,伊朗南部霍尔木兹甘省米纳布市,一枚导弹摧毁了「Shajareh Tayyebeh」女子小学,造成165至180人死亡,其中大多数是7至12岁的学童,另有95人受伤。这是伊美战争期间最惨烈的平民伤亡事件。
调查发现:初步调查显示,过时情报可能导致美国将这所学校误判为军事目标。美国众议院民主党议员随即对此提出质疑,并特别关注人工智能系统——包括「Maven Smart System」(美国军方的AI目标识别系统)——在目标识别过程中扮演的角色。
AI目标识别系统的争议:Maven Smart System是美军2017年开始部署的AI目标识别辅助系统,曾因谷歌员工抗议而引发广泛关注。在伊朗行动中,该系统据报道被用于辅助目标选择,但其决策过程对人类操作员几乎是透明的——这正是批评者长期警告的「人在回路中」原则被架空的具体体现。
事件二:Anthropic起诉五角大楼——AI安全底线的法律保卫战
2026年3月,AI安全公司Anthropic向美国国防部提起两项诉讼,挑战五角大楼对其的「供应链风险」认定。这一认定是前所未有的——美国政府将一家本土AI公司列为供应链安全威胁,原因是Anthropic拒绝移除Claude模型的以下安全限制:
1. 不得用于大规模国内监控
2. 不得为可在无人类干预情况下运行的自主致命武器提供动力
微软、Google、Amazon等科技巨头随即提交法庭之友简报,支持Anthropic的法律挑战——这标志着科技产业对政府强制移除AI安全限制的集体抵制。
Claude被军事使用的悖论:尤其讽刺的是,尽管存在上述争议和特朗普政府的禁令,报道显示美军在伊朗战争中仍在使用Claude模型。这揭示了AI军事应用监管中的灰色地带:即便AI公司明确划定安全红线,政府使用者可能通过间接方式绕过这些限制。
L3Harris×Shield AI:自主电磁威胁响应的新前沿
在更广泛的AI军事化趋势中,L3Harris与Shield AI近日成功演示了无人系统在无人类干预情况下实时探测和响应电磁威胁的能力。这进一步模糊了「自主作战」的边界,也进一步挑战了「有意义的人类控制」(meaningful human control)这一国际社会试图在自主武器领域坚守的底线原则。
伦理框架的失落:「人在回路中」原则的侵蚀
这一系列事件揭示了「人在回路中」(Human-in-the-Loop)原则正在多个层面被系统性侵蚀:
时间压缩侵蚀:AI系统在毫秒级别的速度下处理目标,人类操作员在实践中往往沦为「橡皮图章」。
情报质量依赖:AI目标识别系统的准确率高度依赖输入情报的质量,而情报本身可能过时或被错误解读。
问责真空:当AI系统参与致命决策时,责任归属极度模糊——软件开发公司、使用该系统的指挥官、批准作战计划的政治领导层,各方都可能相互推诿。
技术反射优势侵蚀慎重原则:完全自主系统(如Shield AI的演示)的反应速度本身就成为其被采用的理由——「慢就是输」的逻辑正在取代「谨慎就是负责任」的伦理考量。
国际社会的应对
联合国层面,《特定常规武器公约》(CCW)框架下的自主武器系统专家组会议持续讨论,但距离有约束力的国际条约仍遥不可及。欧盟的《AI法案》对高风险AI应用设有严格要求,但在军事域明确豁免,形成监管真空。
未来展望
米纳布悲剧和Anthropic诉讼案标志着AI军事化的道德危机进入了一个新阶段——不再只是学者和活动人士的警告,而是真实的法律战和真实的生命代价。
可以预见,2026年后的AI军事伦理争论将沿三条主线演进:一是强制性国际条约的谈判压力增加;二是AI公司通过法律手段维护安全红线将成为新常态;三是「AI辅助决策」与「AI自主决策」之间的边界争论将持续激化,尤其是随着AI系统能力的进一步提升。