Anthropic、米国防総省を提訴:サプライチェーンリスク認定が越権行為の疑い

AI企業Anthropicが、契約紛争を理由に同社を政府サプライチェーンから排除した米国防総省の決定を越権行為として提訴した。この事件は、AI業界と政府の協力関係に深刻な影響を与える可能性がある。

AI技術が急速に発展する現在、米国のAIスタートアップ企業Anthropicが突如として注目の的となっている。Claudeチャットボットの開発者である同社は、最近米国防総省(DoD)に対して訴訟を提起し、トランプ政権が越権行為を行い、通常の契約紛争を連邦禁令にエスカレートさせ、同社の技術が政府サプライチェーンに入ることを禁止したと告発している。

事件の発端:契約紛争が国家安全保障禁令に発展

WIREDの報道によると、紛争はAnthropicと国防総省との契約に端を発する。AI安全分野のリーディング企業であるAnthropicは、政府プロジェクトに積極的に参加し、情報分析と意思決定支援のためにClaudeモデルを提供していた。しかし、契約履行における意見の相違が急速に悪化した。国防総省は「サプライチェーンリスク」を理由にAnthropicをブラックリストに載せ、この決定により連邦機関は同社の技術の調達や使用が禁止されることとなった。

「トランプ政権は過度に介入し、商業紛争を政治化させ、企業技術への全面的な禁令に発展させた。」——Anthropic公式声明

Anthropicは、この措置が行政手続法に違反し、企業の正当な手続きの権利を侵害していると主張している。同社の法務チームは、国防総省の「サプライチェーンリスク」認定には十分な証拠がなく、実際の安全保障上の脅威ではなく契約紛争のみに基づいていると強調している。

Anthropicの台頭とAI安全への取り組み

2021年に設立されたAnthropicは、元OpenAI幹部のDario Amoediによって創業され、「責任あるAI」を使命としている。同社のClaudeシリーズモデルは、性能面でGPT-4に匹敵しながらも、Constitutional AI(憲法AI)フレームワークを強調し、モデルの出力が人間の価値観に合致することを保証している。Anthropicはアマゾンとグーグルから数十億ドルの投資を受け、AI「安全派」の代表となっている。

業界背景として、米国政府はAIサプライチェーンに高度な警戒感を持っている。2022年にバイデン政権が「AI法案」に署名して以来、サプライチェーンの安全性が焦点となっている。トランプの第2期(2025年以降を想定)では、「アメリカ・ファースト」政策をさらに強化し、外国投資と技術依存に「ノー」を突きつけた。百度のErnieやアリババのQwenなど中国AI企業の台頭は、米国側の懸念を加速させている。国防総省のサプライチェーンリスク管理フレームワーク(ESSCRP)により、企業を迅速に監視リストに載せることが可能だが、純粋な米国企業であるAnthropicが今回指名されたことは議論を呼んでいる。

訴訟の詳細と法的根拠

Anthropicの訴訟書類は、国防総省の手続き違反を詳細に列挙している:第一に、認定プロセスで聴聞の機会が提供されなかった;第二に、禁令の範囲が過度に広く、国防プロジェクトに限定されず、連邦調達全体に波及している。さらに、同社は行政手続法第706条を援用し、裁判所に対して当該決定の撤回と執行停止命令の発令を求めている。

類似の事例は珍しくない。2023年には華為、ZTEなどが恒久的にエンティティリストに載せられた;2024年には一部のチップ企業がサプライチェーンへの懸念で制限を受けた。しかし、Anthropicが国内企業として訴訟を起こした本件は判例となる可能性があり、政府権力の境界を試すものとなっている。

業界への影響:AIと政府協力への萎縮効果

この事件はAI業界に深遠な影響を与えている。AnthropicのClaudeはすでに企業向けアプリケーションで頭角を現しており、政府禁令により数億ドルの契約を失うことになる。同時に、xAI、Cohereなどの他のAI企業も同様の審査に直面する可能性がある。サプライチェーンリスクフレームワークの下では、Anthropicチームの多くが米国籍であるにもかかわらず、「外国投資」や「創業者の背景」が容易に標的となり得る。

編集者注:本件はAIガバナンスのジレンマを反映している。米国は軍事力向上のためにAIを切実に必要としているが、技術流出を懸念している。トランプ政権の強硬姿勢は国家安全保障に資するものの、国内イノベーションを阻害する可能性がある。Anthropicの訴訟は自己救済だけでなく、規制の過度な介入に対する業界全体の叫びでもある。長期的には、透明な審査メカニズムの推進が共通認識となるだろう。さもなければ、AIの「軍民融合」は妨げられることになる。

今後の展望:安全とイノベーションのバランス

訴訟の結果はまだ不明である。Anthropicが勝訴すれば、国防総省は手続きの改善を余儀なくされる;逆の場合は、政府のAIに対する統制権が強化される。業界専門家は、この事件がNISTのAIリスク管理フレームワークなど、「信頼できるAI」認証システムの構築を加速させると予測している。

同時に、Anthropicは信頼回復のためにClaude 3.5の反復開発を加速し、オープンソースと透明性を強調している。同社CEOのDario Amoediは次のように述べている:「我々はAIの安全性に尽力しており、政治的な騒動によって揺らぐことはない。」

この紛争はAI従事者に対し、技術革新は地政学と共に歩まなければならないことを思い出させる。将来、米国のAIエコシステムは「政府友好派」と「独立派」に分化する可能性がある。

本稿はWIREDから編訳、著者:Paresh Dave、日付:2026年3月9日。