Anthropic、2億ドルの国防総省AI契約紛争で第1ラウンド勝訴

Anthropicが大規模監視や自律兵器へのClaude使用を拒否。連邦裁判官がAnthropic側を支持。

Anthropicと国防総省の2億ドルAI契約対立:連邦裁判所がAI倫理を初めて支持

2026年3月、AI企業Anthropicと米国国防総省が2億ドルのAI契約をめぐり前例のない対立に突入した。Anthropicは2つのレッドラインを設定:Claudeを大量国内監視に使用しない、完全自律型兵器に統合しない。国防総省は「あらゆる合法的使用」条項を要求した。

Anthropicは拒否し「サプライチェーンリスク」に指定された。連邦判事は第1ラウンドでAnthropicを支持、AI企業が契約に倫理的使用条件を設定する権利を認めた。

注目すべきは、国防総省がAnthropicを「国家安全保障上の脅威」と公式発表した同日、副長官がDario Amodeiに「争点はほぼ合意に近い」とメールしていたことだ。

ChatGPTのアンインストールが1日で295%急増、ClaudeがApp Store1位に。Anthropicの年間収益は90億ドルから200億ドル近くに倍増。米国企業のAnthropic有料利用率は4%から40%に、OpenAIの企業支出シェアは50%から27%に変動。

この判決はAI企業の軍事契約における倫理的制限の法的根拠を提供し、AI倫理が法的枠組みで検証・執行できることを証明した。