Anthropic、戦争時のAIツール破壊工作の可能性を否定

米国防総省がAI企業Anthropicが戦争時に遠隔でAIツールを破壊・操作できる可能性を指摘したのに対し、Anthropicは技術的に不可能だと強く反論した。

AI技術が急速に発展する現在、軍事分野への応用は世界的な注目の焦点となっている。最近、米国防総省が大手AI企業Anthropicが戦争勃発時にAIツールを遠隔で破壊または操作する可能性があると公開で非難し、大きな波紋を呼んだ。Anthropicは迅速に対応し、国防総省の懸念は純粋な誤解であり、技術的に全く実現不可能だと述べた。本稿では、この事件の経緯を詳しく分析し、軍民両用分野におけるAIセキュリティの深い課題を探る。

事件起因:国防部的安全疑虑

WIREDの報道によると、米国防総省(DoD)は最新の文書で、Anthropicなどの開発者がバックドアや遠隔制御メカニズムを通じて、戦争中に配備済みのAIモデルを改ざんする能力を持っていると主張した。これにより、米軍が依存するAIシステムが突然機能不全に陥り、国家安全保障を危険にさらす可能性がある。国防総省関係者は、AIが無人機、情報分析、意思決定支援システムに広く統合されている中、この潜在的リスクは無視できないと指摘した。

この非難は根拠のないものではない。近年、米国政府はAIの軍事化への投資を拡大しており、例えばDARPAのAI Nextプログラムや統合全領域指揮統制システム(JADC2)は、民間AI企業の技術サポートに依存している。しかし、DoDは、これらの企業―特に元OpenAIメンバーが設立したセキュリティ重視の企業―が倫理的立場や外部圧力により、重要な時点で「裏切る」可能性を懸念している。

国防総省文書からの抜粋:「AI開発者がモデルを操作して戦争中に機能不全を起こさせる能力は、防衛にとって受け入れがたいリスクを構成する。」

Anthropicの強い反論

Anthropicの幹部は声明で率直に述べた:「これは不可能です。我々のモデル設計は根本的に遠隔介入能力を排除しています。」同社の共同創業者Dario Amodediは、Anthropicが一貫して「責任あるAI開発」に取り組んでおり、同社のClaudeシリーズの大規模モデルには、憲法AI(Constitutional AI)フレームワークを含む多層セキュリティメカニズムが組み込まれており、モデルの動作が事前設定された原則に準拠し、配備後は開発者の制御から離れることを保証していると強調した。

具体的には、Anthropicのモデルは通常、推論エンジンとして軍に提供され、ユーザーはローカルで実行するか、APIを通じてアクセスできるが、コアウェイトと更新メカニズムは厳格な暗号化で保護されている。幹部はさらに、同社が介入したくても技術的手段がないと説明した。なぜなら、軍事配備には通常、カスタムファインチューニングと隔離環境が含まれるからだ。この回答は一部の疑念を払拭しただけでなく、AIセキュリティ分野におけるAnthropicのリーダーシップを際立たせた。

業界背景:AI軍事化の両刃の剣

Anthropicは2021年に設立され、元OpenAI幹部によって創業され、サンフランシスコに本社を置き、セーフティAIを使命としている。同社のClaudeモデルはGPT-4に匹敵する性能を持ちながら、説明可能性と整合性により重点を置いている。同社はすでにアマゾンやグーグルと提携し、評価額は150億ドルを超えている。しかし、軍事分野への参入後、矛盾は避けられない。

歴史を振り返ると、AI軍事化の波は冷戦時代から始まり、今や「インテリジェント戦争」の時代に入っている。中国、ロシアなどの国も展開を加速しており、ロシアの「AI国家戦略」や中国の「新世代人工知能発展計画」などがある。米国DoDはReplicatorプログラムを通じて数千機のAI無人機の配備を計画しており、予算は10億ドルに達する。PalantirやAndurilなどの民間企業が重要なサプライヤーとなっているが、セキュリティ上の懸念は常につきまとう。

同様の論争は初めてではない。2023年、OpenAIは軍事応用を許可するよう方針を修正したが、倫理的な抗議を引き起こした。Anthropicはより慎重で、「攻撃的兵器に関与しない」という約束を維持するため、特定の軍事契約を公に拒否したことがある。今回の事件は、NISTのAIリスク管理フレームワークなど、業界標準の策定を促進する可能性がある。

編集者注:信頼危機と将来展望

AI技術ニュース編集者として、国防総省の非難は予防的意図があるものの、政府の民間AI企業に対する不信を露呈していると考える。AIモデルの「ブラックボックス」性は確かにリスクを増大させるが、過度の疑念はイノベーションを阻害する可能性がある。Anthropicの否定は技術的事実に基づいているが、軍事AIにはフェデレーテッドラーニングやオープンソース検証などの、より強力な「分散化」設計が必要であることも我々に思い起こさせる。

長期的には、この事件は「AI軍備管理」の議論を加速させるだろう。国際社会は、兵器化の境界を規定する、ジュネーブ条約のようなAI条約が必要かもしれない。同時に、企業は配備メカニズムを透明に開示すべきであり、政府は安全なサンドボックステストを提供すべきだ。イノベーションとセキュリティのバランスを取る道のりは長く困難だが、Anthropicの立場は間違いなく業界の基準を確立した。

展望2026年、量子コンピューティングとマルチモーダルAIの融合により、戦争の形態は完全に変革されるだろう。誰がAIを制御できるか、誰が未来を掌握する。しかし、前提条件は、AIが「パンドラの箱」にならないことを確保することだ。

(本文約1050字)

本稿はWIREDから編訳、著者Paresh Dave、日付2026-03-21。