Anthropic將五角大廈告上法庭後,遭多個聯邦機構停用。AI軍事化的邊界在哪?
美國國務院、財政部等多個聯邦機構宣布停止使用Anthropic的Claude模型,原因是雙方在軍事和國家安全場景的使用範圍上產生嚴重分歧。此前Anthropic拒絕向國防部提供無限制軍事用途的AI系統,並被國防部列為「供應鏈風險」,隨後Anthropic正式起訴國防部。
Anthropic正式拒絕了美國國防部的一份AI合約,理由是其模型在當前階段無法滿足軍事應用所需的安全標準。這一決定在AI行業引發了巨大震動。
Anthropic CEO Dario Amodei在公開聲明中表示,公司的核心使命是確保AI的安全發展。他強調,軍事領域的AI應用需要極高的可靠性、可預測性和可控性——當AI系統的決策可能直接影響人類生命安全時,任何程度的「幻覺」或不可預測行為都是不可接受的。Amodei指出,儘管Claude系列模型在商業和科研領域表現優異,但軍事場景對安全性的要求遠超民用標準,現有模型尚未達到這一門檻。
這一立場與行業主流趨勢形成了鮮明對比。OpenAI近年來大幅擴展了與美國國防部的合作範圍:從最初的網路安全防禦工具,逐步擴展到情報分析、戰場態勢感知、後勤優化等多個領域。據報導,OpenAI已向國防部提供了客製化的GPT模型,用於處理非機密情報摘要和軍事文件分析。與此同時,Google在經歷了2018年Project Maven引發的員工抗議風波後,不僅沒有退出軍事AI領域,反而更加系統性地推進了軍事合約——Google Cloud現已成為五角大廈的主要雲服務供應商之一,並為國防部提供基於Gemini的分析工具。
Anthropic的決定在AI倫理界引發了兩極化的討論。支持者——包括多位知名AI安全研究者——認為這是負責任AI開發的典範,證明了一家以安全為核心價值的公司能夠在商業壓力下堅持原則。他們引用了歷史上科學家拒絕參與武器研發的先例,將Anthropic的立場視為AI時代的「奧本海默時刻」。然而,批評者——包括部分國防領域的AI專家——則認為Anthropic的拒絕是天真的道德姿態。他們指出,如果注重安全的公司拒絕參與,國防部將不得不轉向安全意識更弱的供應商,最終結果可能是更不安全的AI系統被部署在關鍵軍事場景中。
值得注意的是,Anthropic並未完全關上與政府合作的大門。Amodei明確表示,公司正在開發更嚴格的AI安全評估框架,一旦模型的安全性能達到軍事應用的要求,Anthropic不排除重新考慮的可能。這一策略性的「暫時拒絕」——而非永久性的道德抵制——顯示出Anthropic在商業現實主義和安全原則之間尋找平衡的努力。
這一事件的更深層意義在於,它折射出AI行業正在經歷的根本性張力:隨著AI能力的指數級增長,技術的軍事化應用變得越來越不可避免,而AI公司必須決定自己在這場軍備競賽中扮演什麼角色。
從更宏觀的視角來看,Anthropic的這一決定也折射出AI安全研究與商業化之間日益複雜的關係。作為一家由前OpenAI研究團隊創立的公司,Anthropic從成立之初就將「負責任的AI開發」作為核心定位。然而,公司的商業運營需要持續的資金支持——Anthropic已累計融資超過150億美元,估值超過600億美元——而軍事合約通常是AI公司最大的潛在收入來源之一。拒絕國防部合約意味著放棄一筆可能高達數億美元的收入,這對任何公司來說都不是輕鬆的決定。
另一個值得關注的維度是地緣政治競爭。在中美AI競賽的大背景下,美國政府正積極推動本土AI企業參與國防建設。Anthropic的拒絕可能招致來自國會和國防鷹派的政治壓力。行業分析師預測,這一事件可能催生一種新的「分層參與」模式:AI公司可以參與低風險的軍事應用(如後勤優化、維修預測),同時拒絕高風險應用(如自主武器系統、目標識別)。