事件始末:一场源代码追删的意外风暴
据 TechCrunch 报道,知名 AI 公司 Anthropic 在试图从 GitHub 上移除其泄露的源代码时,意外删除了数千个无关仓库。这一事件于 2026 年 4 月 2 日曝光,作者 Tim Fernholz 详细披露了整个过程。Anthropic 高管迅速回应,称这是操作失误,并已撤回大部分下架通知(DMCA takedown notices)。
事情的起因是 Anthropic 的核心模型源代码意外泄露。这些代码可能涉及 Claude 系列大语言模型的训练细节和技术架构,一旦公开,将对公司商业利益造成重大打击。Anthropic 启动了大规模的 DMCA(数字千年版权法)下架行动,目标直指那些托管泄露代码的仓库。然而,由于通知范围过广或自动化工具失控,数千个与 Anthropic 无关的开源项目也被卷入,导致开发者社区一片哗然。
"我们承认这是一个错误,我们已经撤销了绝大多数通知,并正在与受影响的仓库所有者合作恢复内容。" —— Anthropic 高管声明
行业背景:AI 源代码泄露为何频发?
AI 领域的源代码泄露并非 Anthropic 首例。早在 2023 年,Meta 的 Llama 2 模型权重被非法分发,引发全球争议;OpenAI 也曾因内部文档外泄而紧急应对。这些事件凸显了 AI 公司面临的双重困境:一方面,开源促进创新,推动行业进步;另一方面,核心算法和训练数据是商业壁垒的核心。
Anthropic 作为亚马逊和谷歌投资的明星企业,以安全导向的 AI 开发闻名。其 Claude 模型强调宪法 AI(Constitutional AI),旨在避免有害输出。但源代码泄露暴露了供应链风险:从员工笔记本到云存储,再到第三方平台,任何环节都可能成为突破口。GitHub 作为全球最大代码托管平台,每日处理海量仓库,DMCA 机制本是为版权保护而设,却在 AI 时代面临滥用质疑。
数据显示,2025 年以来,AI 相关 DMCA 请求同比增长 300%,其中 40% 涉及开源仓库。这反映出 AI 巨头们在闭源与开源间的摇摆:一方面保护知识产权,另一方面依赖社区生态。
事件影响:开发者社区的愤怒与反思
受影响的开发者迅速在社交媒体上发声,许多仓库所有者报告称,其项目被无故下架长达数小时,影响了 CI/CD 管道和协作流程。一位独立开发者在 X(前 Twitter)上表示:“我的小型工具库与 Anthropic 八竿子打不着,却成了炮灰。这不是保护创新,而是扼杀它。”
GitHub 方面已介入,优先恢复合法仓库,并加强 DMCA 审核机制。Anthropic 的回应较为及时,避免了更大危机,但事件仍引发法律讨论:过度 DMCA 是否构成滥用?美国版权局正考虑改革通知规则,以适应 AI 时代。
编者按:平衡创新与安全的紧迫课题
作为 AI 科技新闻编辑,我认为此次事件是行业警钟。Anthropic 的失误虽属意外,却暴露了自动化执法工具的局限性。未来,AI 公司应探索更精准的追踪技术,如水印嵌入或区块链溯源。同时,开源社区需强化自保机制,避免成为大国博弈的牺牲品。
长远看,这或推动“部分开源”模式:公开接口与框架,隐藏核心参数。Anthropic 可借此机会强化透明度,赢得信任。AI 竞赛中,安全与开放并非零和游戏,而是互促共赢。
事件仍在发酵,Anthropic 已承诺内部审计,并向受影响开发者致歉。科技界期待更成熟的生态规则。
本文编译自 TechCrunch,原文作者 Tim Fernholz,日期 2026-04-02。
© 2026 Winzheng.com 赢政天下 | 转载请注明来源并附原文链接