OpenAIとGoogle従業員がAnthropicを支持、国防総省のサプライチェーンリスク指定に反撃

米国防総省がAnthropicを「サプライチェーンリスク」企業に指定したことに対し、OpenAIとGoogle DeepMindの30名以上の従業員が公開支持を表明し、AI業界の団結を示した。

AI業界の競争が白熱化する中、予想外の業界団結行動がテック界を震撼させた:OpenAIとGoogle DeepMindから30名以上の従業員が公開でAnthropicを支持し、米国防総省(DOD)が起こした訴訟に対抗した。この事件は、国防総省がAnthropicを「サプライチェーンリスク」企業として指定し、政府契約への参加を禁止したことに端を発する。法廷文書によると、これらの従業員の声明は重い一撃のように、AIイノベーションの自由な空間を守った。

事件の発端:Anthropicに「サプライチェーンリスク」のレッテル

元OpenAI幹部が設立したAIスタートアップ企業Anthropicは、Claudeシリーズの大規模言語モデルで知られ、すでにアマゾンとGoogleの重要な投資対象となっている。しかし、2026年初頭、DODは突然同社をサプライチェーンリスクリストに掲載し、その理由を潜在的な国家安全保障上の脅威とした。具体的には、国防総省はAnthropicのサプライチェーンが外国企業、特に中国関連の技術依存を含む可能性を懸念している。これによりAnthropicは連邦政府のプロジェクトを一切受注できなくなり、大きな損失を被った。

法廷文書は指摘する:「国防総省がAnthropicをサプライチェーンリスクに指定した後、同社は即座に訴訟を提起し、この決定の撤回を求めた。」

Anthropic創業者のDario Amodediは回答で、この措置は「根拠がなく、米国のAIリーダーシップを深刻に損なう」と述べた。この告発は孤立した例ではない。近年、米国政府はスパイリスクを防ぐためAIサプライチェーンへの審査を強化しているが、企業界からの反発も引き起こしている。

業界背景:AIと国防総省の愛憎劇

AIと国防総省の関係を振り返ると、まさに波乱万丈だ。OpenAIは初期に1億ドル相当の国防契約を締結し、Project Maven(メイブンプロジェクト)でドローン識別技術を開発した。しかし2018年、OpenAI従業員が集団で抗議し、会社は同プロジェクトから撤退し、「有益なAI」原則に転換することを余儀なくされた。Google DeepMindも同様の圧力に直面し、親会社のGoogleは2018年にMavenプロジェクトで従業員のストライキを受けて契約を終了した。

現在、Anthropicの遭遇は再び導火線に火をつけた。OpenAIとDeepMind従業員の共同声明には次のように書かれている:「我々はAnthropicの立場を支持する。なぜなら政府によるAI企業への恣意的なレッテル貼りは、イノベーションを扼殺し、米国を世界的なAI競争で競合相手に遅れを取らせるからだ。」この声明は多数の上級エンジニアと研究者によって署名され、業界内部のコンセンサスを体現している。

業界背景を補足すると、米国防総省は「国防授権法」(NDAA)を通じてサプライチェーンリスクリストを確立し、華為(ファーウェイ)、中興(ZTE)などの中国企業を含めている。AI分野の審査はチップ供給(NVIDIA GPUなど)とクラウドサービス依存に焦点を当てている。Anthropicは技術スタックが主に米国本土に依存していることを強調しているが、アマゾンの投資(AWSクラウドサービス)は潜在的な脆弱性として疑問視されている。

従業員共同署名の深い意味

今回の30名以上の従業員の行動は偶然ではない。OpenAI内部では、2023年のChatGPTの安全性への懸念による集団退職など、何度も従業員の離職の波が発生している。DeepMind従業員もGoogleの軍事用AIプロジェクトに不満を表明した。これらの「反乱」事件は、AI従事者が単なる商業よりも倫理志向を重視する傾向があることを示している。

声明の核心的論点には次が含まれる:1)リスク評価の透明性の欠如、2)自律兵器の倫理審査など、国防分野でのAIの積極的な応用を抑制する、3)制限のない国への人材流出を促す可能性がある。

編集者注:AI業界の団結 vs. 国家安全保障のレッドライン

AIテクノロジーニュース編集者として、この事件はAI業界が「内向きの競争」から「集団的抵抗」に転換する節目だと考える。OpenAI、Google従業員の支持は、Anthropicを擁護するだけでなく、エコシステム全体のために一線を引いている:政府の規制は証拠に基づくべきで、政治的圧力によるものではない。DODが勝訴すれば、他のAI企業への「パンドラの箱」を開くことになる。逆の場合は、米国のAI政策枠組みを再構築する可能性がある。

長期的に見ると、これは中米AI対決の縮図を反映している。米国は安全とイノベーションのバランスを取る必要があり、そうでなければ自縄自縛に陥る。百度(バイドゥ)、阿里(アリババ)などの中国AI企業は追い上げを加速しており、サプライチェーンの自主化はすでに共通認識となっている。Anthropicのケースは転換点になる可能性があり、継続的な注目に値する。

将来を展望すると、AI企業はより多くのロビー活動を推進し、業界同盟を結成することさえあるかもしれない。アマゾンのような投資家も、地政学的リスクを考慮する必要がある。

潜在的影響と展望

短期的には、この訴訟は連邦裁判所での審理に入り、数ヶ月以内に初期判決が出ると予想される。Anthropicが勝訴すれば、類似企業に先例を提供することになる。長期的には、議会にNDAA条項の修正を促し、より科学的なAIリスク評価メカニズムを確立することになる。

業界観察者は指摘する:「従業員の声明は雪中に炭を送るようなもので、AI人材の道徳的底線が忠誠心よりも高いことを際立たせている。」TechCrunchがこの事件を報道した後、AI株は短期的に変動したが、全体的には楽観的だった。

つまり、この訴訟は法廷闘争だけでなく、理念の争いでもある。AIの未来は、政府、企業、従事者の駆け引きにかかっている。

本稿はTechCrunchからの編訳、著者Rebecca Bellan、日付2026-03-10。