ペンタゴン、AI企業に機密データを使用した軍事モデルの訓練を許可する計画

米国防総省は、AnthropicなどのAI企業が高度にセキュアな環境で機密軍事データを使用して専用モデルを訓練することを許可する計画を検討している。この動きは、より戦場のニーズに適合したAIシステムの構築を目指している。

人工知能が急速に発展する現在、米国防総省(ペンタゴン)は大胆な計画を練っている:Anthropicなどの生成AI企業が、高度にセキュアな隔離環境において、極秘の軍事データを使用して専用の軍事モデルを訓練することを許可するというものだ。この情報はMIT Technology Reviewが独占的に報じたもので、国防当局者によると、この動きは戦場のニーズにより適合したAIシステムを構築し、AI競争において米軍が先行することを目的としている。

計画の詳細:推論から訓練への飛躍

現在、ペンタゴンはすでに複数のAI企業と協力し、AnthropicのClaudeなどの既製モデルを機密ネットワークに展開し、情報問題への回答に使用している。例えば、イランの潜在的標的を分析する際、これらのAIは膨大なデータを迅速に処理し、洞察を提供できる。しかし当局者は、現段階では「推論」(inference)に限定されており、モデルのパラメータは機密データに触れることはないと強調している。ペンタゴンはさらに一歩進んで、「セキュアサンドボックス」環境を構築し、AI企業がカスタムバージョンのモデルを訓練し、機密文書から直接学習できるようにする計画だ。

ペンタゴンは、生成AI企業が機密データを使用して軍事専用モデルを訓練できるセキュア環境の構築を議論している。AnthropicのClaudeなどのAIはすでに機密シーンで使用されており、イラン標的の分析も含まれる。しかし、モデル訓練の許可は新たな章を開くことになる。

この転換は、米軍のAIに対する切実なニーズに起因している。2023年、ペンタゴンは「Replicator」計画を立ち上げ、自律型ドローン群の開発に数十億ドルを投資したが、AI訓練には膨大な注釈付きデータが必要だ。衛星画像や敵の通信などの機密情報こそが理想的なリソースである。

業界背景:国防AI協力の加速

米軍のAI配備は一朝一夕のものではない。早くも2018年、国防イノベーションユニット(DIU)はProject Mavenを開始し、Google AIを使用してドローン映像を分析したが、従業員の抗議により中断されたものの、基礎を築いた。近年、OpenAIは軍事禁止を解除し、Andurilと協力している。Microsoft Azureはペンタゴンにクラウドサービスを提供し、Palantirは情報分析に特化している。Anthropicは新興勢力として、そのClaudeモデルは安全性の調整で知られ、すでにペンタゴンの信頼を得ている。

グローバル競争は激化している。中国の「軍民融合」戦略はAIの軍事化を推進し、ロシアとイスラエルもAI戦場システムを展開している。米国は後れを取ることを懸念し、2024会計年度の国防予算でAI予算は20億ドルを超えた。この計画は転換点となり、商業AIが国防の中核に深く組み込まれる可能性がある。

技術的課題:安全な訓練の「不可能なミッション」

生成AIの訓練には膨大な計算とデータが必要だが、機密環境では「ゼロリーク」が要求される。連合学習(データがドメインを出ない)などの従来の方法は効率が低い。ペンタゴンは「クリーンルーム」アーキテクチャを採用する予定だ:データは隔離されたGPUクラスター内で処理され、モデルの重みは暗号化されて出力され、リバースエンジニアリングによる情報窃取を防ぐ。同時に、差分プライバシー技術を導入し、機密の詳細を曖昧化する。

専門家は、リスクは依然として存在すると指摘している。2023年のChatGPTデータ漏洩事件は警鐘を鳴らした。軍事シナリオでは、バックドア攻撃やモデル汚染はより致命的だ。NISTはすでにAIリスクフレームワークを発表しており、ペンタゴンはサプライヤーを厳格に監査する必要がある。

潜在的影響:機会と倫理的論争

成功裏に実施されれば、「軍用Claude 2.0」が誕生し、マルチモーダル情報融合、リアルタイム戦術シミュレーション、さらには自律的意思決定に長けることになる。これは戦場を再形成する:ドローン群が敵の妨害に自己適応し、情報分析が時間単位から秒単位に短縮される。しかし批判者は「AI軍備競争」の激化を懸念し、民間AI企業が殺害連鎖に巻き込まれ、Asilomar AI原則に違反すると主張している。

国際的な影響は顕著だ。英国、オーストラリアなどの同盟国が追随し、「ファイブアイズ同盟」AIバリアを形成する可能性がある。対抗勢力は、華為のAscendチップの軍事利用など、国産化を加速するだろう。

編集者注:イノベーションとセキュリティのバランスという緊急の命題

この計画はAIの両刃の剣としての本質を浮き彫りにしている:国防の近代化を加速する一方で、人間のコントロール力を試している。中国のAI規制経験(データローカライゼーションなど)は参考になる。米国は透明な立法が必要であり、「ブラックボックス軍事AI」を避けるべきだ。長期的には、官民協力が主流となるが、倫理的な一線を越えてはならない。ペンタゴンがより多くの詳細を公表し、責任あるAI開発を推進することを期待する。(約1050字)

本記事はMIT Technology Reviewより編集