在AI竞赛白热化的当下,一则重磅新闻震动了整个科技圈:AI独角兽Anthropic与美国五角大楼的2亿美元合同谈判彻底崩盘。五角大楼甚至罕见地将Anthropic正式指定为“供应链风险”,原因直指双方在AI模型控制权上的不可调和分歧。这不仅仅是单一交易的失败,更是为众多追逐联邦军方订单的初创企业敲响的警钟。
事件始末:从蜜月到决裂
据TechCrunch报道,五角大楼原本寄希望于Anthropic的Claude系列大模型,用于提升国防领域的AI能力。然而,谈判焦点很快转向敏感议题:军方希望获得对AI模型的深度控制权,包括将其部署在自主武器系统(如无人机杀手机制)和大规模国内监视项目中。Anthropic创始人Dario Amodei等高管坚决反对,认为这将违背公司“安全AI”的核心使命。公司强调,其模型应保持相对开放,避免被用于可能引发伦理灾难的应用。
五角大楼官员表示:“我们无法接受供应商对关键技术的单方面限制,这直接威胁国家安全。”
谈判破裂后,五角大楼迅速转向竞争对手OpenAI。OpenAI欣然接受合同,但随之而来的是公众强烈反弹:ChatGPT应用卸载量在短短一周内激增295%。用户担忧OpenAI正滑向“军工复合体”,这与公司早期“造福全人类”的愿景背道而驰。事件曝光后,Anthropic股价虽未上市但估值受挫,而OpenAI则面临品牌危机。
行业背景:AI军用化的加速与争议
回顾AI与军方的纠葛,并非新鲜事。早在2018年,谷歌员工就因Project Maven(为无人机提供AI目标识别)而大规模抗议,导致项目流产。OpenAI虽在2020年承诺不直接开发致命自主武器,但近期已悄然调整政策,允许“国防与安全”领域的合作。Anthropic则更激进,自成立起就强调“宪法AI”(Constitutional AI),通过内置伦理框架限制有害输出。
美国国防部近年来加大AI投入,2025财年预算中AI相关拨款超100亿美元,涵盖从情报分析到网络战的全链条。五角大楼的“供应链风险”机制源于《国家国防授权法》,旨在防范依赖外国技术(如华为)的隐患。但此次针对本土AI企业的指控,暴露了军方对开源与闭源模型的控制欲。补充背景:中国和俄罗斯也在推进AI军用,如俄罗斯的“AI国家冠军计划”,这进一步刺激美方加速布局。
本文由 赢政天下编译整理,原文来自海外媒体 - Winzheng.com。
影响深远:初创企业的双刃剑
对Anthropic而言,此次失利虽痛,但也强化了其“负责任AI”的品牌形象。公司近期刚完成亚马逊和谷歌的数十亿美元投资,估值飙升至150亿美元。相比之下,OpenAI的Sam Altman虽赢得合同,却付出公关代价,用户流失可能影响订阅收入。
更广义看,这警示所有AI初创:联邦合同虽诱人(平均规模上亿),但往往伴随严格审查和伦理陷阱。数据显示,过去两年,超20家AI初创与DoD签约,但成功率不足50%,多因数据隐私或出口管制问题夭折。未来,随着《AI法案》和出口管制趋严,企业需在商业野心与社会责任间抉择。
编者按:伦理红线何时成行业共识?
作为AI科技新闻编辑,我认为Anthropic的坚持值得赞许。在AI“军备竞赛”中,无节制追求军方资金可能酿成“潘多拉魔盒”。试想,若Claude被用于大规模监视,将如何侵蚀公民隐私?OpenAI的卸载潮已证明,公众对“AI武器化”高度敏感。建议初创企业:一是强化伦理审计,二是多元化融资,避免单一依赖军方。长远看,国际AI军控协议亟需推进,方能遏制风险。
随着赌注不断升高,一个问题萦绕不去:AI企业能让渡多少“无限制”控制权,而不失灵魂?
(本文约1050字)
本文编译自TechCrunch,作者Theresa Loconsolo,2026-03-07。
© 2026 Winzheng.com 赢政天下 | 本文由赢政天下编译整理,转载请注明来源。原文版权归原作者所有。