Anthropicが漏洩ソースコード削除を試み数千のGitHubリポジトリを誤って削除、同社は操作ミスと説明

AI企業のAnthropicが漏洩したソースコードをGitHubから削除しようとした際、誤って数千の無関係なリポジトリを削除する事故が発生。同社は操作ミスを認め、大部分の削除通知を撤回した。

事件の経緯:ソースコード削除追跡の予期せぬ騒動

TechCrunchの報道によると、著名なAI企業のAnthropicがGitHubから漏洩したソースコードを削除しようとした際、誤って数千の無関係なリポジトリを削除してしまった。この事件は2026年4月2日に暴露され、著者のTim Fernholzが全過程を詳細に開示した。Anthropicの幹部は迅速に対応し、これは操作ミスであり、すでに大部分の削除通知(DMCA takedown notices)を撤回したと述べた。

事の発端はAnthropicのコアモデルのソースコードが誤って漏洩したことだった。これらのコードにはClaudeシリーズの大規模言語モデルの訓練詳細や技術アーキテクチャが含まれている可能性があり、一旦公開されれば会社の商業利益に重大な打撃を与えることになる。AnthropicはDMCA(デジタルミレニアム著作権法)による大規模な削除行動を開始し、漏洩コードをホストしているリポジトリを標的とした。しかし、通知範囲が広すぎたか自動化ツールが制御不能になったため、Anthropicと無関係な数千のオープンソースプロジェクトも巻き込まれ、開発者コミュニティは騒然となった。

「これは誤りであったことを認め、私たちは大部分の通知を撤回し、影響を受けたリポジトリの所有者と協力してコンテンツを復元しています。」—— Anthropic幹部声明

業界背景:なぜAIソースコードの漏洩が頻発するのか?

AI分野でのソースコード漏洩はAnthropicが初めてではない。早くも2023年、MetaのLlama 2モデルの重みが不法に配布され、世界的な議論を引き起こした。OpenAIも内部文書の流出により緊急対応を迫られたことがある。これらの事件はAI企業が直面する二重の困難を浮き彫りにしている:一方でオープンソースはイノベーションを促進し、業界の進歩を推進する;他方で、コアアルゴリズムと訓練データは商業的障壁の核心である。

AnthropicはアマゾンとGoogleが投資するスター企業として、安全指向のAI開発で知られている。同社のClaudeモデルは憲法AI(Constitutional AI)を強調し、有害な出力を回避することを目指している。しかしソースコードの漏洩はサプライチェーンのリスクを露呈した:従業員のノートパソコンからクラウドストレージ、そして第三者プラットフォームまで、どの段階も突破口になりうる。GitHubは世界最大のコードホスティングプラットフォームとして、毎日膨大なリポジトリを処理しており、DMCAメカニズムは本来著作権保護のために設計されたものだが、AI時代において濫用の疑いに直面している。

データによると、2025年以来、AI関連のDMCA請求は前年比300%増加し、そのうち40%がオープンソースリポジトリに関わっている。これはAI大手がクローズドソースとオープンソースの間で揺れ動いていることを反映している:一方で知的財産を保護し、他方でコミュニティエコシステムに依存している。

事件の影響:開発者コミュニティの怒りと反省

影響を受けた開発者はソーシャルメディアで迅速に声を上げ、多くのリポジトリ所有者が自分のプロジェクトが理由なく数時間削除され、CI/CDパイプラインと協業プロセスに影響を与えたと報告した。ある独立開発者はX(旧Twitter)で次のように述べている:「私の小さなツールライブラリはAnthropicとは何の関係もないのに、巻き添えを食らった。これはイノベーションの保護ではなく、扼殺だ。」

GitHub側は介入し、合法的なリポジトリの復元を優先し、DMCA審査メカニズムを強化している。Anthropicの対応は比較的迅速で、より大きな危機を回避したが、事件は依然として法的議論を引き起こしている:過度なDMCAは濫用に当たるのか?米国著作権局はAI時代に適応するため、通知ルールの改革を検討している。

編集者注:イノベーションと安全のバランスという緊急課題

AI科学技術ニュース編集者として、私はこの事件が業界への警鐘だと考える。Anthropicのミスは偶発的なものだったが、自動化執行ツールの限界を露呈した。将来的に、AI企業はより正確な追跡技術、例えば透かし埋め込みやブロックチェーントレーサビリティなどを探求すべきだ。同時に、オープンソースコミュニティは自己保護メカニズムを強化し、大国間の駆け引きの犠牲者になることを避ける必要がある。

長期的に見れば、これは「部分的オープンソース」モデルを推進する可能性がある:インターフェースとフレームワークを公開し、コアパラメータは隠す。Anthropicはこの機会を活かして透明性を強化し、信頼を勝ち取ることができる。AIレースにおいて、安全性と開放性はゼロサムゲームではなく、相互に促進し合うものだ。

事件は依然として進展中で、Anthropicは内部監査を約束し、影響を受けた開発者に謝罪している。技術界はより成熟したエコシステムルールを期待している。

本記事はTechCrunchから編訳、原著者Tim Fernholz、日付2026-04-02。