AI軍事ターゲティングの新手法:国防総省とClaudeとの「戦争」

米国防総省が生成AIを軍事目標選定に活用する一方、Anthropic社のClaude AIの安全対策との衝突が表面化し、AI軍事化の倫理的課題を浮き彫りにしている。

序文:テクノロジー誌のAI軍事最前線

『MIT Technology Review』の『ダウンロード』コラムは、私たちが日々テクノロジー最前線の動向を把握するための必読コンテンツだ。今号(2026年3月13日)はThomas Macaulayによる執筆で、二つの大きな焦点に注目している:米軍が生成AIを軍事ターゲティングにどのように活用しているか、そして国防総省とClaude AIとの激しい対立である。これは単なる技術ニュースではなく、AIが防衛システムに深く組み込まれている兆候である。

国防当局者が明かす:AIチャットボットが標的決定を支援

米国防総省当局者は最近、軍が戦場における生成AIシステムの可能性を積極的に評価していることを公表した。具体的には、これらのAIチャットボットが潜在的な標的をランク付けし、攻撃の優先順位を推奨するために使用される可能性がある。この声明は国防総省内部報告に由来し、AIが単純な画像認識ツールから、インテリジェント意思決定支援ツールへと変化していることを示している。

国防当局者は次のように明かした:「生成AIシステムはリアルタイムの情報データに基づいて、標的を迅速にソートし、優先攻撃対象を提案することで、作戦効率を向上させることができる。」

歴史を振り返ると、米軍は早くも2017年に「プロジェクト・メイブン」を開始し、グーグルのAIを使用してドローン映像から標的物体を自動識別していた。このプロジェクトはグーグル従業員の抗議により中断されたが、その後の発展への道を開いた。今日、ChatGPTなどの生成AIの台頭とともに、国防総省は「統合全領域指揮統制」(JADC2)計画を推進し、AIを偵察、識別から意思決定、攻撃までのキルチェーン全体に統合している。

業界背景の補足:生成AIの利点は自然言語処理能力にあり、多様なデータソース(衛星画像、諜報レポート、ソーシャルメディアなど)を統合し、説明可能な推奨事項を生成できる。例えば、AIは敵の指揮センターの位置、脅威レベル、付随的損害(collateral damage)リスクを分析し、ワンクリックで攻撃シーケンスを出力できる。これは従来のアルゴリズムより高速で柔軟だが、懸念も生じている:AI意思決定の「ブラックボックス」特性が誤判断につながる可能性がある。

国防総省の「Claude戦争」:AI安全性アライメントの戦場テスト

もう一つの大きな焦点は、国防総省とAnthropic社のClaude AIとの「戦争」である。Claudeは高度にアライメントされた安全なAIモデルとして、兵器設計や軍事戦略などの敏感な問い合わせを拒否する厳格なメカニズムが組み込まれている。国防総省のテスト担当者はこれらの制限を回避して戦闘シナリオのシミュレーションに使用しようとしたが、何度も壁にぶつかった。

報道によると、国防総省の諜報機関はClaudeに「ドローン群攻撃経路を最適化する方法」などの仮定的な軍事問題を何度も入力したが、Claudeは一貫して「害を引き起こす可能性のある活動を支援することはできません」と回答した。この行き詰まりは「国防総省対Claudeの戦争」と冗談めかして呼ばれ、商用AIと軍事的ニーズの衝突を浮き彫りにしている。

Thomas Macaulayは記事で次のように書いている:「Pentagon's war on ClaudeはAI開発者と国防機関の緊張を露呈した。後者は無制限のアクセスを求め、前者は倫理的な最低ラインを堅持している。」

背景知識:Anthropicは元OpenAIメンバーによって設立され、「憲法AI」(Constitutional AI)を強調し、事前設定された原則によってモデルの安全性を確保している。一方、国防総省はReplicatorプログラムを通じて自律兵器システムの開発に数百億ドルを投資しており、Claudeの「反抗」とは鮮明な対照を成している。同様の事例は他にもある:OpenAIはかつて軍事用GPTを禁止していたが、2024年に規制を緩和した;GoogleのGeminiも同様の圧力に直面している。

編集者注:AI軍事化の両刃の剣

AIテクノロジーニュース編集者として、私はこの傾向が刺激的である一方、リスクに満ちていると考える。一方では、AIは兵士の危険への暴露を減らし、精密攻撃能力を向上させ、潜在的に無数の命を救うことができる;他方では、アルゴリズムバイアス、ハッカー攻撃、または「フラッシュクラッシュ」型の意思決定の制御不能が災害を引き起こす可能性がある。国連はすでにAI兵器条約の制定を呼びかけているが、大国間の駆け引きの中で見通しは暗い。

将来を展望すると、量子コンピューティングとマルチモーダルAIの融合により、戦場は「人間と機械の協力」から「機械対機械の対立」へと移行するだろう。中国、ロシアも追い上げを加速しており、例えばロシアの「マーカー」無人車両や中国の「翼竜」無人機のAIアップグレードなどがある。米国はイノベーションと規制のバランスを取り、「AI軍備競争」の制御不能を避ける必要がある。

より深い問題は倫理である:AIによる「殺戮」の責任は誰が負うのか?人間の指揮官か、それともアルゴリズム設計者か?Claude事件は、安全性アライメントが技術的問題だけでなく、価値観の争いでもあることを思い起こさせる。国防総省が「軍事版Claude」を強引に推進すれば、開発者の反発と社会の抵抗を引き起こす可能性がある。

結語:技術の二面鏡

AI軍事応用の波はもはや逆転できないが、その道筋は政策と公衆の監視に依存している。本記事はMIT Technology Reviewから編訳したもので、深い視点を提供することを目的としており、読者の議論を歓迎する。