OpenAIロボティクス責任者がPentagon契約に抗議して辞任:AI軍事化の倫理的レッドライン
OpenAIのロボティクス・消費者ハードウェア責任者カイトリン・カリノスキー氏が3月8日に辞任を発表。直接の原因は同社と米国防総省のAI協力協定に対する強い不満。彼女はソーシャルメディアで「司法監督なしでのアメリカ国民の監視、および人間の承認なしでの致命的自律性は、実際より多くの審議に値するレッドライン」と投稿。これはOpenAIの国防分野における商業拡大戦略を直接的に挑戦する発言。
カリノスキー氏は以前Metaから転職し、ロボット実験室を含む同社の物理AI プロジェクト構築を担当していた。彼女は辞任が「人に対してではなく原則に基づくもの」と強調し、CEO サム・アルトマン氏とチームへの「深い敬意」を表明。この表現は問題が企業ガバナンス プロセスにあることを示唆—取引が急速に進められ、十分な内部倫理審議を欠いていたということ。
OpenAIは協定に明確な「レッドライン」があると回答:国内監視に使用せず、自律兵器に使用しない。しかし批評家らは、これらの約束に独立監視メカニズムが欠けていると指摘。この事件は競合他社Anthropicが類似の取引を拒否してPentagonに「サプライチェーンリスク」と指定された後に発生し、AI業界の軍事化問題における深刻な分裂を浮き彫りにしている。
OpenAIロボティクス責任者がPentagon契約に抗議して辞任
事件の経緯
2026年3月8日、OpenAIのロボティクス・消費者ハードウェア責任者カイトリン・カリノスキー氏がLinkedInとXで同時に辞任を発表。彼女の声明は簡潔かつ力強いものでした:「OpenAIを辞任いたします。ロボティクスチームと私たちが一緒に築いてきた仕事を深く気にかけています。これは簡単な決断ではありませんでした。」
カリノスキー氏の辞任は2月末にOpenAIと米国防総省が署名したAI協力協定を直接的に指している。この協定により、OpenAIのAIシステムが国防総省の安全なコンピューティング環境での運用が可能となり、これは米国政府が先進AI ツールを国家安全保障業務に組み込む取り組みの一部である。
核心的な争議:レッドラインはどこにあるか?
カリノスキー氏は公開声明で2つの明確なレッドラインを示した:
1. **司法監督なしでの国民監視**:法廷の承認なしでAIを使用してアメリカ国民を監視すること
2. **人間の承認なしでの致命的自律性**:人間の最終決定なしでAIシステムが致命的行動を実行することを許可すること
彼女は、これらの「実際に得られたよりも多くの審議に値する」問題が取引推進過程で急いで飛ばされたと考えている。これは国防分野におけるAI応用への反対ではない—彼女は明確に「AIは国家安全保障において重要な役割がある」と表明している—むしろ、十分なガバナンス フレームワークが欠如している状況での性急な推進への反対である。
業界背景:AI軍事化の分水嶺
この事件は孤立したものではない。過去2週間で、AI業界は軍事化問題をめぐって前例のない動揺を経験している:
- **Anthropicが「サプライチェーンリスク」に指定**:2月末、AnthropicはそのClaudeモデルが大規模国内監視と自律兵器に使用されることを拒否したため、国防長官ピート・ヘグセス氏によって正式に「サプライチェーンリスク」に指定された—このラベルは通常、敵対的な外国実体にのみ使用される
- **OpenAIが空白を迅速に埋める**:Anthropicが排除された後、OpenAIは迅速にPentagonと協定を締結し、「レッドライン」があることを約束したが商業契約を獲得
- **Googleも参入**:国防総省はそのGenAIMil プラットフォームでGoogleのAI システムも導入
OpenAIの回答と困境
OpenAI広報担当者は、この協定が「責任ある国家安全保障AI使用への実行可能な道筋を作成し、同時に私たちのレッドラインを明確にしている:国内監視を行わず、自律兵器を使用しない」と回答した。しかし、この回答は3つの疑問に直面している:
1. **約束の実行可能性**:これらのレッドラインが遵守されているかを誰が監督するのか?現在、独立した第三者監査メカニズムは存在しない
2. **定義の曖昧さ**:協定において「国内監視」と「自律兵器」の正確な定義はどのように界定されているか?
3. **商業圧力と倫理の衝突**:競合他社が倫理的立場を堅持して排除された時、OpenAIは商業利益を選択した
カリノスキー氏の職歴
カリノスキー氏は2024年にMetaからOpenAIに転職し、以前はMetaで拡張現実ハードウェア開発を率いていた。OpenAIでは、チーム採用とロボット実験室設立を含む物理AI プロジェクト構築を担当していた。彼女の辞任声明では「責任ある物理AI」の仕事を続けることを強調し、この分野には軍事応用を前提としない発展路線がまだあると示唆している。
深層の影響
この事件はAI業界が正式に「倫理分化期」に入ったことを示している:
- **人材流動の新次元**:トップAI人材はもはや給与と技術プラットフォームだけを見るのではなく、倫理的立場が職業選択の重要な要因となっている
- **ガバナンスギャップの露呈**:最も著名なAI企業でさえ、政府協力に関わる際に十分な内部倫理審査プロセスが欠けている
- **競争格局の再編**:Anthropicは倫理を堅守して処罰され、OpenAIは妥協して契約を獲得した—これは業界全体に危険な信号を送っている
AI業界の従事者と観察者にとって、問題はもはやAIが軍事化されるかどうかではなく、軍事化過程において、誰が線を引き、誰が実行し、誰が監督するかである。