Anthropic、米国防総省を提訴:サプライチェーンリスク認定は「違法で前例のない」

AI安全性の先駆企業Anthropicが、米国防総省による「サプライチェーンリスク」指定を違法として提訴。AI業界と米政府の国家安全保障審査をめぐる初の公開対決となった。

事件背景:Anthropic、国防総省に強硬反撃

TechCrunchの報道によると、AI安全性の先駆企業Anthropicは3月10日、米カリフォルニア州北部地区連邦裁判所に正式に訴訟を提起し、米国防総省(DoD)が同社を誤って「サプライチェーンリスク」実体として指定したと告発した。この行動をAnthropicは「前例のない違法行為」と表現し、AI業界と米政府が国家安全保障審査において初めて公開対決することとなった。

「国防総省の行動は前例のない違法行為である。」——Anthropic訴訟文書

Anthropicによると、国防総省は十分な証拠なしに同社をサプライチェーンリスクリストに掲載し、これにより連邦政府とのあらゆる契約協力が直接禁止された。このリストは2021会計年度「国防権限法」(NDAA)第1656条に由来し、国防総省は国家安全保障上の考慮に基づき、特定の外国実体に関連する企業のサプライチェーン参加を制限できる。

サプライチェーンリスクメカニズムの解析

米国防総省のサプライチェーンリスク管理(SRM)プログラムは、潜在的なスパイ活動や技術流出リスクを防ぐことを目的とし、特に中国やその他の敵対国と関連のある企業を対象としている。2018年以降、このメカニズムはHuawei、ZTEなどの企業を制限するために使用されてきたが、サンフランシスコに本社を置く米国のAIスタートアップ企業を対象に含めることは極めて稀である。

Anthropicは2021年に設立され、元OpenAIの幹部Dario Amoediが創業し、「説明可能で安全な」AIモデルClaudeの開発で知られる。同社は「憲法AI」アプローチを強調し、憲法原則によってモデルの行動を制約し、バイアスや悪用を回避することを目指している。AnthropicはすでにAmazonとGoogleから数十億ドルの投資を獲得し、多くの企業と協力しているが、まだ国防契約に深く関与していない。

訴訟文書によると、国防総省の認定は具体的な証拠を欠き、Anthropicの一部従業員の「外国背景」や「潜在的な関連」のみに基づいており、これは適正手続きと憲法修正第5条に違反している。Anthropicは、すべてのモデル訓練データとインフラが米国内にあり、同社が複数のセキュリティ監査に合格していると主張している。

業界背景:AIと国家安全保障の対峙

この事件は孤立したものではない。近年、米政府はAIサプライチェーンへの規制を日増しに厳格化している。2023年のバイデン政権はAI執行命令を発布し、AIモデルの「デュアルユース」リスクの評価を要求した。2024年には、議会が中国への高性能チップの輸出を制限する複数の法案を可決した。「責任あるAI」の代表としてのAnthropicは、かつてOpenAIの商業化路線を公然と批判し、米国国立科学財団から資金援助を受けている。

しかし、国防総省の動きは、より広範な地政学的懸念から生じている可能性がある。AIは将来の戦争の中核技術と見なされており、米軍は情報分析と自律兵器への生成AIの活用に大規模な投資を行っている。類似の事件には、2025年の国防総省によるNVIDIAの一部サプライチェーンへの審査や、複数のAIスタートアップ企業へのセキュリティ審査が含まれる。専門家は、もしAnthropicが敗訴すれば、政府が「リスクリスト」を拡大する先例となり、AI生態系全体に影響を与えると指摘している。

編集者注:この訴訟は、AI業界が直面する「愛国者のジレンマ」を浮き彫りにしている。一方では、企業はグローバルな人材と技術協力を追求し、他方では、国家安全保障の優先がイノベーションを窒息させる可能性がある。Anthropicの反撃は、より透明な審査メカニズムを推進する可能性があるが、米中技術デカップリングの深い影響も露呈している。本件の審理は数ヶ月続くと予想され、継続的な注目に値する。

潜在的影響と市場反応

訴訟発表後、Anthropicの株価は小幅に変動したが、投資家の信頼に大きな打撃はなかった。同社の評価額はすでに150億ドルを超えており、この事件はむしろその「独立性」のイメージを高めた。主要なクラウドプロバイダーであるAmazon(AWS)はAnthropicを公然と支持し、そのセキュリティ記録は「申し分ない」と述べている。

AI業界にとって、この事件は連鎖反応を引き起こす可能性がある。xAIやCohereなど複数の企業が政府契約を求めており、リスク認定基準が曖昧であれば不確実性が増大する。同時に、企業に対してコンプライアンスの強化を促している:従業員のバックグラウンドチェック、データのローカライゼーション、第三者監査を含む。

グローバルな視点から見ると、米国の厳格な審査は中国の「軍民融合」戦略と対照的である。欧州のAI法は安全リスクよりも倫理に重点を置いている。AnthropicのCEO Dario Amoediはツイッターで次のように述べた:「我々は米国の利益に尽力しているが、事実に基づかなければならない。」

今後の展望:イノベーションとセキュリティのバランス

短期的には、Anthropicは契約損失に直面する可能性があるが、長期的には訴訟を通じて広報上の勝利を収める可能性がある。国防総省はまだ回答していないが、内部文書によると、その審査は情報評価に基づいている。アナリストは、裁判所がより多くの証拠開示を要求し、政策の透明化を推進すると予測している。

この事件はAIガバナンスにも鏡となる:超知能時代において、国家安全保障と技術自由の駆け引きはますます激化するだろう。AnthropicのClaude 4モデルは年内にリリース予定で、勝訴すれば市場での地位をさらに固めることになる。

本文約1050字、TechCrunchからの全文翻訳、著者Rebecca Bellan、原文日付2026-03-10。