Anthropic被Pentagon列為「供應鏈風險」,拒絕移除AI安全護欄

美國國防部長2月27日宣布將Anthropic列為「供應鏈風險」,要求所有聯邦機構6個月內停用其技術。起因是Anthropic拒絕撤除Claude的兩條紅線:禁止大規模國內監控和完全自主武器。儘管被禁,美軍在3月初對伊朗行動中仍使用了Claude進行情報分析和目標識別。法律專家普遍認為該指定「法律依據薄弱」。諷刺的是,Claude因此事一度超越ChatGPT成為美國下載量第一的應用。

Anthropic被Pentagon列為「供應鏈風險」:AI安全紅線引發的產業地震

美國國防部長2月27日宣布將AI公司Anthropic列為「供應鏈風險」,要求所有聯邦機構在6個月內全面停止使用其技術。這一罕見且史無前例的舉措在AI產業和法律界引發了巨大震盪,成為AI發展史上的標誌性事件。

衝突核心與根本對立

整場衝突的核心在於Anthropic拒絕撤除旗下AI產品Claude的兩條關鍵紅線:嚴格禁止用於大規模國內監控活動,以及禁止用於完全自主武器系統的開發和部署。美國國防部認為這些技術限制嚴重妨礙了AI在軍事領域的廣泛應用,而Anthropic則堅持認為這是任何情況下都不可逾越的道德底線和技術倫理邊界。

矛盾、諷刺與法律爭議

儘管Anthropic已被正式列入禁用名單,但據多家媒體報導,美軍在3月初針對伊朗的軍事行動中仍然秘密使用了Claude進行情報分析和目標識別工作。這一矛盾行為引發了外界對禁令實際執行力度的質疑。法律專家普遍認為該指定的「法律依據相當薄弱」,存在程序正義方面的嚴重缺陷,Anthropic已正式表示將透過法律途徑發起挑戰。

更具諷刺意味的是,受到這一爭議事件的巨大關注度推動,Claude應用一度超越了ChatGPT,登頂成為美國下載量第一的應用程式,形成了「越禁越火」的奇特現象。

深遠的產業影響

此事件凸顯了AI安全原則與國家安全需求之間日益尖銳且難以調和的張力。它注定將成為全球AI產業治理領域的標誌性案例,深刻影響未來AI企業與各國政府之間的合作模式和博弈關係,也將推動各方加快制定更加明確的AI治理架構。

对各方的连锁反应

這一事件不僅影響了Anthropic自身的商業前景,也迫使整個AI產業重新審視與政府合作的邊界和條件。其他AI公司如Google、Meta和Microsoft正在密切觀察事態發展,以調整自身的政策立場和政府合作策略。同時,歐盟和其他國家的AI監管機構也在關注此案例,作為制定國際AI治理規則的重要參考。