Anthropic、2億ドルの国防総省AI契約紛争で第1ラウンド勝訴
Anthropicが大規模監視や自律兵器へのClaude使用を拒否。連邦裁判官がAnthropic側を支持。
Anthropicと国防総省の2億ドルAI契約対立:連邦裁判所がAI倫理を初めて支持
2026年3月、AI企業Anthropicと米国国防総省が2億ドルのAI契約をめぐり前例のない対立に突入した。Anthropicは2つのレッドラインを設定:Claudeを大量国内監視に使用しない、完全自律型兵器に統合しない。国防総省は「あらゆる合法的使用」条項を要求した。
Anthropicは拒否し「サプライチェーンリスク」に指定された。連邦判事は第1ラウンドでAnthropicを支持、AI企業が契約に倫理的使用条件を設定する権利を認めた。
注目すべきは、国防総省がAnthropicを「国家安全保障上の脅威」と公式発表した同日、副長官がDario Amodeiに「争点はほぼ合意に近い」とメールしていたことだ。
ChatGPTのアンインストールが1日で295%急増、ClaudeがApp Store1位に。Anthropicの年間収益は90億ドルから200億ドル近くに倍増。米国企業のAnthropic有料利用率は4%から40%に、OpenAIの企業支出シェアは50%から27%に変動。
この判決はAI企業の軍事契約における倫理的制限の法的根拠を提供し、AI倫理が法的枠組みで検証・執行できることを証明した。