米司法省:Anthropicは戦闘AIシステム開発に信頼できず

米司法省がAnthropic社の軍事利用制限に対して「戦闘システムには信頼できない」と非難し、同社を処罰。AI倫理と国家安全保障の対立が浮き彫りに。

AI技術が急速に発展する現在、軍事AIの応用は世界的な技術競争の焦点となっている。先日、米国司法省がAnthropic社の訴訟に対する回答で、同社は「戦闘システムには信頼できない」と直言し、業界に衝撃を与えた。この事件は、AnthropicがClaude AIモデルの軍事分野での使用を制限しようとしたことに端を発し、政府は合法的な処罰で対抗した。

事件の発端:Anthropicの軍事制限と政府の反撃

AI安全性を重視する企業として、AnthropicのClaude大規模言語モデルシリーズは、性能面でOpenAIのGPTシリーズに匹敵しながら、「責任あるAI」を売りにしている。同社の創業者は、技術を兵器開発に使用しないと公言していた。しかし、米軍のAIへの渇望が日増しに強まる中、Anthropicと国防総省の協力は避けられなくなった。

政府は法廷文書で次のように述べている:「AnthropicがClaude AIモデルの軍での使用方法を制限しようとしたことは、契約違反であり、我々は法に基づいて処罰を行う。」

WIREDの報道によると、2026年3月18日、司法省はAnthropicの訴訟に正式に回答した。Anthropicは以前、処罰が商業的自主権を侵害していると政府を提訴していた。しかし司法省は、同社の行動が国家安全保障上の利益を損なっており、特にClaudeモデルが情報分析や自律兵器システムなどの分野で使用される可能性がある場合にそうであると反論した。

業界背景:AI軍事化の世界的競争

軍事分野でのAI応用は目新しいものではない。無人機の自律航行からサイバー戦の情報処理まで、AIは現代の戦場を再構築している。米国防総省はDARPA(国防高等研究計画局)などの機関を通じて、AI プロジェクトに大規模な投資を行っており、Mavenプロジェクトでは従業員の抗議を引き起こしたものの、すでにGoogle AIを標的識別に使用している。

Anthropicの苦境は孤立した例ではない。OpenAIはかつてマイクロソフトと協力し、軍にAIを提供したが、CEO のSam Altmanは「防御的」用途を強調している。対照的に、中国はAI軍事化においてより速いペースで進んでおり、華為や百度などの企業が「軍民融合」戦略に深く関与している。2025年、米国議会は「AI軍事応用法」を可決し、国内AI企業に国防ニーズへの優先的な対応を求め、企業と政府の駆け引きを激化させた。

Claudeモデルの中核的な優位性は、その「憲法AI」フレームワークにあり、人間の価値観を通じて出力を制約し、有害なコンテンツを回避できる。しかし軍は、この種の「安全弁」が高強度の戦闘で機能しなくなり、システムが信頼できなくなる可能性があると考えている。司法省の文書は次のように指摘している:「Anthropicの制限措置は、同社が戦時の複雑なシナリオに対処するのに不適格であることを証明している。」

双方の法廷論戦

Anthropicの訴訟の焦点は契約の自由にある。同社は、軍との契約は物流の最適化やシミュレーション訓練などの非戦闘用途に限定されていると主張している。しかし政府の弁護士は、Claudeの汎用性がその軍民両用の潜在力を決定づけており、いかなる制限も「一方的な契約違反」であると反論している。

法廷文書によると、処罰には数百万ドルの罰金が含まれ、Anthropicへの連邦資金の一部が停止される。これはベンチャー投資に依存する同社にとって大きな打撃である。Anthropicは「有益なAI」を推進し続けると回答したが、将来的に立場を調整する可能性は否定しなかった。

編集者注:AI倫理と国家安全保障の均衡

この事件はAI業界の深い矛盾を反映している。一方では、企業は倫理的な底線を追求し、「AI軍備競争」を回避しようとしている。他方では、国家安全保障のニーズは無視できない。Anthropicの「安全第一」理念は賞賛に値するが、米国の地政学的圧力の下では、持続することが困難かもしれない。

将来を展望すると、米中AI競争が白熱化する中、米国政府は規制を強化し、xAIやMetaなどより多くの企業を軍事利用に参加させる可能性がある。同時に、国際社会は技術の制御不能を避けるため、AI軍事利用の規範を制定する必要がある。Anthropicの事例は転換点となり、AI企業の底線と強靭性を試すことになるかもしれない。

本稿は約1050字、WIRED より編訳、著者Paresh Dave、日付2026-03-18。