Anthropic対国防総省:AI軍事利用拒否でサプライチェーン禁止令の法廷闘争が激化
2026年3月25日、AnthropicはカリフォルニアのⅢ連邦裁判所において、国防総省が同社に課した「サプライチェーンリスク」指定の一時停止を求める緊急差し止め命令を申請した。この紛争は、AnthropicがClaude AIの自律型兵器開発や大規模国内監視への利用を拒否したことに端を発する。トランプ大統領は即座にすべての連邦機関にAnthropicの製品使用停止を命じ、6ヶ月の移行期間を設けた。
審理では、担当判事が国防総省の意図に直接疑問を呈し、この指定は「Anthropicを潰そうとする試み」のように見えると述べた。Anthropicは憲法上の権利(言論の自由・適正手続)の侵害を主張しており、ワシントンDCの控訴裁判所でも別途訴訟を提起している。
この訴訟はAI業界全体に衝撃を与えており、AI企業が軍事契約において倫理的な制限を設ける権利があるかどうかを巡る歴史的な司法判断となる可能性が高く、最終的には最高裁判所まで争われると予想されている。
Anthropic対国防総省:AI軍事利用をめぐる歴史的法廷闘争
事件の経緯
2026年3月25日、AI企業のAnthropicはカリフォルニア州連邦裁判所に出廷し、国防総省(ペンタゴン)が同社に課した「サプライチェーンリスク」指定の一時停止を求める緊急差し止め命令を申請した。この指定は事実上、すべての連邦政府機関がAnthropicの製品・サービスを購入することを禁じるものだ。
トランプ大統領はこれを受けてすべての連邦機関に対し、Anthropicの技術の使用を即座に停止するよう命令を発令。既存の導入については6か月間の段階的廃止期間が設けられた。
紛争の核心は、Anthropicのサービス利用規約にある。この規約は、Claude AIを自律型致死兵器システムの開発、大規模な国内監視活動、および人体への危害につながる可能性がある軍事応用に使用することを明示的に禁止している。国防総省がこれらの分野でClaudeを展開しようとした際、Anthropicは規約の変更を拒否。国防総省は2026年3月初旬、Anthropicを「国家安全保障に対するサプライチェーンリスク」として指定した。この指定は通常、外国の敵対企業にのみ適用されるものだ。
法廷での攻防
審理において、担当の連邦地裁判事は国防総省の動機に直接疑問を呈した。判事はこの「サプライチェーンリスク」指定が「Anthropicを無力化しようとする試みのように見える」と述べ、公のAI安全性に関する同社の立場に対する報復的な措置である可能性を示唆した。この発言はAnthropicにとって大きな法的優位性をもたらすものとなった。
Anthropicの主要な主張:
- 指定は合法的な商業的権利の行使に対する違法かつ報復的な政府行為
- 私企業として、自社の価値観とAI安全方針に従って製品の使用条件を設定する憲法上の権利を有する
- この指定は第一修正条項(言論の自由)および第五修正条項(適正手続)を侵害している
- 指定による評判上の損害は即時的、深刻かつ回復不能であり、世界の商業顧客との数十億ドル規模の契約に影響する
- 倫理的ガードレールを維持するAI企業は社会的に有益な機能を果たしており、安全保障上のリスクではない
国防総省の主要な主張:
- 防衛ニーズへの対応を拒否するAI企業は正当なサプライチェーン安全保障上のリスクを構成する
- AIは国家安全保障にとって中核的なものであり、政府は民間企業が一方的に制限を課すことを許容できない
- 国防総省の措置はAnthropicの商業的行為と契約条項の拒否を対象としたものであり、言論を標的としたものではない
- 軍は調達した技術をすべての合法的目的に使用する柔軟性を保持しなければならない
Anthropicはまた、ワシントンD.C.の連邦控訴裁判所において、民間政府契約からの潜在的な排除について争う別個の訴訟も提起している。
業界への衝撃と各方面の反応
この訴訟はシリコンバレー全体に衝撃を与え、すべての主要AI企業に防衛セクターとの関係を再検討させている。
Google、OpenAI、Metaなど政府・防衛省との各種契約を維持している企業は、判決を固唾を飲んで見守っている。Anthropicが勝訴すれば、防衛契約において倫理的限界を設定するAI企業の権利を支持する法的先例となる。ペンタゴンが勝訴すれば、倫理的ガードレールを放棄する圧力が生じ、AIスタートアップ企業の政府契約戦略に直接影響する。
カトリック擁護団体は珍しくも法廷助言者意見書を提出してAnthropicを支持し、同社の倫理的制約が人間の尊厳の基本的価値観と合致すると主張した。
より大きな歴史的文脈
この訴訟が提起する問いは、技術企業と政府の関係における根本的な哲学的課題を示している。
AI企業は自社技術の最終的な使用目的に対して法的・道徳的責任を負うのか?政府はどの範囲まで民間企業に自らのニーズへの対応を強制できるのか?これらの問いに対する司法の答えは、今後数十年のAIガバナンスの方向性を規定することになる。
2026年国防授権法(NDAA)はすでに、防衛・情報機関が調達するAIに対する厳格なサプライチェーンおよびセキュリティ要件を義務付けており、このタイプの紛争はAIガバナンス議論の常態となることが予想される。
法律専門家の間では、本件は最終的に最高裁判所まで争われる可能性が高いと広く見られており、その判決はAI時代における企業倫理と国家安全保障の境界線を画するものとなるだろう。