Palantir第9回AIPCon:AnthropicのClaudeで軍事作戦計画を生成、AI軍事利用論争が白熱化
防衛テック大手Palantirが第9回AIPCon(3月12日)でAnthropicのClaude LLMを軍事意思決定に活用するデモを公開。Project Mavenシステムで情報分析からターゲティングまでの時間を短縮。Anthropicが軍事利用を拒否したモデルが仲介経由で軍事シーンに入る矛盾が浮き彫りに。
米国の防衛テクノロジー大手Palantirが、第9回年次AIPCon大会において、巨大な論争を引き起こしたAI軍事応用システムを披露した。このシステムはAnthropicのClaude大規模言語モデルを使用して、軍の指揮官に戦争行動計画を自動生成するものである。このデモンストレーションは、テクノロジー業界と政策サークルでAI軍事化の倫理的境界をめぐる激しい議論を巻き起こした。
NDTVの報道によると、Palantirは大会において、米国国防総省、NATO同盟国の軍関係者、防衛関連企業から集まった約500名の参加者に対し、最新版のAIP(AI Platform)システムを披露した。ライブデモンストレーションでは、オペレーターが仮想戦場シナリオをシステムに入力した——敵軍の配置、地形データ、味方の利用可能な資源、作戦目標を含む——そしてシステムは約90秒で3つの完全な作戦計画を生成した。各計画には部隊移動の提案、火力打撃のタイミング、後方補給路線、予想される死傷者分析が含まれていた。
The Registerの詳細な報道はさらなる技術的詳細を明らかにした。PalantirのAIPシステムは軍事分野向けにファインチューニングされたClaudeモデルを使用し、RAG(検索拡張生成)技術を通じて軍事教義、歴史的戦例、地理情報の膨大なデータベースに接続している。システムが生成する計画にはテキストの説明だけでなく、自動生成された戦場状況図やタイムラインの可視化も含まれている。PalantirのCTOであるShyam Sankarはプレゼンテーションで「システムが生成した計画は、実行前に必ず人間の指揮官による審査と承認が必要です。AIの役割は参謀であり、意思決定者ではありません」と強調した。
しかし、この保証は批判の波を鎮めることはできなかった。The Vergeは、記者の追及に対してAnthropicのCEO Dario Amodeiが、Anthropicの利用規約(Acceptable Use Policy)はClaudeを「人身傷害につながる可能性のある兵器システム」に使用することを明確に禁止していると述べたが、「補助的な軍事分析」の境界線の画定にはグレーゾーンが存在することを認めたと報じた。Anthropicはその後声明を発表し、Palantirの具体的な使用方法がポリシー条項に適合しているかどうかを審査中であると述べた。
Defense Oneの分析記事は、Palantirのデモンストレーションのタイミングは偶然ではないと指摘した。米国国防総省は「統合全領域指揮統制」(JADC2)計画の推進を加速しており、AIを使って陸・海・空・宇宙・サイバー・電磁波の各領域の作戦情報を統合することを目指している。Palantirは30億ドルを超える防衛契約を獲得しており、ペンタゴンのAI変革戦略における中核的な受注企業の一つである。デモンストレーションの目的は技術力の誇示だけでなく、新たな予算交渉に先立って議会と軍に軍事的意思決定におけるAIの実用的価値を示すことにもあった。
404 Mediaの調査報道はさらに深い倫理的議論を引き起こした。記者が入手した内部文書によると、Palantirが開発中の次世代システムは「作戦計画の自律的更新」能力を持つ可能性がある——リアルタイムの戦場状況の変化に基づいて自動的に提案を調整し、意思決定ループにおける人間の関与度を低減するものである。複数のAI倫理学者がこれに深刻な懸念を表明した。イェール大学技術倫理センターのWendell Wallach所長は警告した。「補助的な意思決定から自律的な意思決定への滑り坂は、我々が想像するよりも速いかもしれない。指揮官がAI生成の計画に慣れ、修正なしに実行し始めたら、いわゆる『ヒューマン・イン・ザ・ループ』は名ばかりのものになる。」
国際的な反応も強烈だった。グテーレス国連事務総長は致死的自律型兵器システムへの反対姿勢を改めて表明し、2026年末までに拘束力のある国際条約の締結を各国に呼びかけた。中国外務省報道官は定例記者会見で、中国は「一貫してAI技術の兵器化に反対している」と述べ、関係国に「責任あるAI技術の使用」を促した。赤十字国際委員会も声明を発表し、AIを軍事的意思決定に適用する前に厳格な法的審査メカニズムを確立し、国際人道法の基本原則への適合を確保することを求めた。
この論争が映し出す核心的な問題は、AI能力が急速に向上する中で、軍事応用と倫理的制約の間にどのように明確なレッドラインを引くかということである。その答えは将来の戦争の姿と人類社会の安全基盤を決定する可能性がある。
歴史的・地政学的背景から見ると、AIの軍事化は新しいことではないが、そのスピードと深度は質的変化を遂げている。Defense Oneのタイムラインによると、2020年に米軍のProject Mavenが初めてAIをドローン画像分析に使用し(当時Google社員の大規模な抗議を引き起こし、Googleが契約から撤退する事態となった)、2023年にはイスラエルがAIシステム「Lavender」をガザ作戦の標的識別の補助に使用していると報じられ、そして2026年にPalantirのデモンストレーションがAIの役割を「データ分析」から「作戦計画の生成」へと押し進めた——これは質的な飛躍である。
国際軍備管理界は強く反応した。国連AI軍事応用特使はデモンストレーション後に声明を発表し、国際社会に「軍事的意思決定におけるAIの役割の境界に関する議定書」を早急に策定するよう呼びかけた。赤十字国際委員会(ICRC)の法律顧問は次のように指摘した。「現行の国際人道法は、戦争の決定は人間が行うことを前提としている。もしAIが民間人の犠牲につながりうる軍事作戦の計画に参加し始めたら、既存の法的枠組みは根本的な挑戦に直面することになる。」
資本市場の反応はまったく対照的だった。PalantirのAIPCon後の2営業日で株価は12%上昇し、アナリストは相次いで目標株価を引き上げた。Palantirの2026会計年度の軍事AI契約総額は40億ドルを超え、前年比200%以上の増加である。ウォール街のロジックはシンプルだ:ペンタゴンの2027会計年度予算におけるAI関連支出は130億ドルに達し、Palantirは最大の受益者の一つである。利益と道徳の天秤の上で、資本市場は躊躇なく前者を選んだ。このAI軍事化をめぐる議論は何年も続くことが運命づけられているが、技術の列車はすでに発車している。取り返しのつかない状態になる前に効果的な国際ガバナンス枠組みを構築できるかどうかは、全人類が直面する喫緊の課題である。