Anthropic拒绝武装AI,正是英国青睐它的原因

Anthropic拒绝美国国防部要求移除Claude AI的安全护栏,避免用于全自治武器和国内大规模监视,这一原则性立场引发美国施压,却让英国政府抛出橄榄枝。故事并非外交拉锯,而是政府因企业坚守底线而惩罚的典型案例。英国视Anthropic为AI安全典范,积极推动其本土扩张,凸显全球AI监管的分歧与机遇。(128字)

事件始末:美国国防部的最后通牒

2026年2月底,美国国防部长皮特·赫格塞斯(Pete Hegseth)向Anthropic首席执行官达里奥·阿莫迪(Dario Amodei)发出严厉最后通牒:立即移除Claude AI模型的安全护栏,这些护栏严格禁止其用于开发全自治致命武器(LAWS)或国内大规模监视系统。赫格塞斯警告,若不遵守,将面临联邦合同冻结、出口管制升级乃至反垄断调查。这并非空穴来风——Anthropic作为AI安全领域的领军企业,其Claude系列模型以内置伦理护栏闻名,拒绝任何可能导致人类伤害的应用。

美国国防部长直言:“AI不是玩具,它必须服务国家安全。Anthropic的道德洁癖正拖累美国在AI军备竞赛中的领先地位。”

Anthropic迅速回应,阿莫迪公开信中强调:“我们不会牺牲安全原则换取短期利益。AI的未来应以人类福祉为先。”这一拒绝直接导致美国政府暂停了对Anthropic的数亿美元研究资助,并启动审查程序。

Anthropic的AI安全哲学:从诞生起就拒绝军用化

Anthropic成立于2021年,由前OpenAI高管创立,以“负责任的AI扩展”(Responsible Scaling)为核心理念。公司开发Claude模型时,便嵌入多层护栏,包括宪法AI(Constitutional AI)框架,确保模型遵守人类价值观。不同于OpenAI或Google等巨头,Anthropic公开承诺不参与军事应用,尤其反对“杀手机器人”。

行业背景中,AI军用化争议由来已久。2023年联合国讨论《致命自治武器公约》,但美中俄等大国态度暧昧。美国DARPA项目如“AI Next”已投资数百亿美元开发军用AI,而Anthropic的立场与之针锋相对。2025年,Claude 3.5 Opus模型的发布,进一步强化了这些护栏,拒绝生成武器设计代码或监视算法。这让Anthropic在硅谷成为“良心企业”,却也招致国防部的敌意。

英国的战略机遇:拥抱原则性AI玩家

正当美国施压之际,英国政府迅速行动。2026年3月,英国数字与科技大臣亲自飞往旧金山,与Anthropic洽谈本土扩张。英国承诺提供税收优惠、数据中心补贴,并优先授予政府合同——前提是Anthropic维持其安全护栏。伦敦将成为Claude在欧洲的首个数据中心枢纽,预计创造数千就业岗位。

这一转折并非偶然。英国AI战略以“安全创新”为核心,2024年发布的《AI安全峰会》白皮书强调伦理优先。相较美国军工复合体主导的模式,英国更青睐像Anthropic这样的企业,以平衡中美AI竞赛。首相办公室表示:“Anthropic的拒绝证明其可靠,我们欢迎这样的伙伴。”这不仅是商业扩张,更是地缘政治博弈:英国欲借AI重塑“全球英国”影响力。

编者按:原则 vs. 权力,AI监管的全球分水岭

这一事件折射出AI治理的深刻分歧。美国视AI为国家安全工具,推动“军民融合”,而欧洲(尤其是英国)强调人文底线。Anthropic的抉择值得赞许,但也暴露风险:企业原则可能被大国政治碾压。未来,若中美AI军备赛加剧,类似“流亡”现象或成常态。建议中国AI企业借鉴,强化自主安全框架,避免外部胁迫。

更广视角下,全球AI监管碎片化加剧。欧盟《AI法案》已将高风险AI(如军用)列为禁区,美国却通过《国家AI倡议》倾斜军工。Anthropic的英国之行,或预示“安全AI岛屿”兴起,推动国际公约加速。

未来展望:Anthropic的全球布局与挑战

Anthropic计划2026年底前在英国上线Claude企业版,目标服务金融、医疗等领域。同期,公司融资超100亿美元,估值逼近2000亿。挑战犹存:美国可能施加“长臂管辖”,英国数据隐私法也需适应。

对行业而言,此事警示:AI企业须平衡商业与伦理。DeepMind(Alphabet子公司)已表态支持Anthropic,xAI的马斯克则嘲讽其“软弱”。无论如何,Anthropic证明——坚守原则,不仅是道德,更是战略资产。

(本文约1050字)

本文编译自AI News