OpenAI機器人負責人辭職抗議Pentagon交易:AI軍事化的倫理紅線之爭

OpenAI機器人與消費硬件負責人Caitlin Kalinowski於3月8日宣布辭職,直接原因是對公司與美國國防部簽署的AI合作協議表達強烈不滿。她在社交媒體發文稱,「在沒有司法監督的情況下監控美國公民,以及沒有人類授權的致命自主權,是值得更多審議的紅線」。這一表態直接挑戰了OpenAI在國防領域的商業擴張策略。

Kalinowski此前從Meta加入OpenAI,負責建設公司的物理AI項目,包括機器人實驗室。她強調辭職是「出於原則而非對人」,並表示對CEO Sam Altman和團隊仍有「深深的尊重」。這種措辭暗示問題出在公司治理流程——交易推進過快,缺乏充分的內部倫理審議。

OpenAI回應稱協議設有明確「紅線」:不用於國內監控,不用於自主武器。但批評者指出,這些承諾缺乏獨立監督機制。此事件發生在競爭對手Anthropic因拒絕類似交易被Pentagon列為「供應鏈風險」之後,凸顯AI行業在軍事化問題上的深刻分裂。

OpenAI機器人負責人辭職抗議Pentagon交易

事件始末

2026年3月8日,OpenAI機器人與消費硬件負責人Caitlin Kalinowski在LinkedIn和X上同時發文宣布辭職。她的聲明簡潔而有力:「我從OpenAI辭職了。我深深關心機器人團隊和我們一起建設的工作。這不是一個容易的決定。」

Kalinowski的辭職直接指向2月底OpenAI與美國國防部簽署的AI合作協議。該協議允許OpenAI的AI系統在國防部的安全計算環境中運行,是美國政府將先進AI工具納入國家安全工作的一部分。

核心爭議:紅線在哪裡?

Kalinowski在公開聲明中劃出了兩條明確的紅線:

1. **無司法監督的公民監控**:在沒有法院授權的情況下使用AI監控美國公民

2. **無人類授權的致命自主權**:允許AI系統在沒有人類最終決策的情況下執行致命行動

她認為這些「值得比實際獲得的更多審議」的議題在交易推進過程中被匆忙跳過。這不是反對AI在國防領域的應用——她明確表示「AI在國家安全中有重要角色」——而是反對在缺乏充分治理框架的情況下倉促推進。

行業背景:AI軍事化的分水嶺

這一事件並非孤立。過去兩周,AI行業圍繞軍事化問題經歷了前所未有的震盪:

  • **Anthropic被列為「供應鏈風險」**:2月底,Anthropic因拒絕允許其Claude模型被用於大規模國內監控和自主武器,被國防部長Pete Hegseth正式列為「供應鏈風險」——這一標籤通常只用於敵對外國實體
  • **OpenAI迅速填補空缺**:Anthropic被排除後,OpenAI迅速與Pentagon達成協議,承諾設有「紅線」但獲得了商業合同
  • **Google同樣入局**:國防部在其GenAIMil平台上也引入了Google的AI系統

OpenAI的回應與困境

OpenAI發言人回應稱,該協議「為負責任的國家安全AI使用創造了可行路徑,同時明確了我們的紅線:不進行國內監控,不使用自主武器」。但這一回應面臨三重質疑:

1. **承諾的可執行性**:誰來監督這些紅線是否被遵守?目前沒有獨立的第三方審計機制

2. **定義的模糊性**:「國內監控」和「自主武器」的精確定義在協議中如何界定?

3. **商業壓力與倫理的衝突**:當競爭對手因堅持倫理立場被排除時,OpenAI選擇了商業利益

Kalinowski的職業背景

Kalinowski於2024年從Meta加入OpenAI,此前在Meta領導增強現實硬件開發。在OpenAI,她負責建設物理AI項目,包括招聘團隊和建立機器人實驗室。她的辭職聲明中強調將繼續從事「負責任的物理AI」工作,暗示她認為這一領域仍有不以軍事應用為前提的發展路徑。

深層影響

這一事件標誌著AI行業正式進入「倫理分化期」:

  • **人才流動的新維度**:頂級AI人才不再只看薪資和技術平台,倫理立場成為關鍵的職業選擇因素
  • **治理缺口暴露**:即使是最知名的AI公司,在涉及政府合作時也缺乏充分的內部倫理審查流程
  • **競爭格局重塑**:Anthropic堅守倫理被懲罰,OpenAI妥協獲得合同——這向整個行業發送了危險的信號

對於AI行業的從業者和觀察者而言,問題已不再是AI是否會被軍事化,而是在軍事化過程中,誰來畫線、誰來執行、誰來監督。