事件概述
2月28日,OpenAI正式宣布与美国国防部(五角大楼)达成一项备受争议的协议。该协议允许美军在高度机密的军事环境中部署OpenAI的核心AI技术,包括其前沿大语言模型。这一声明迅速引发AI行业震动,尤其是竞争对手Anthropic,该公司此前曾公开拒绝类似合作,并警告此类‘妥协’将开启AI军事化的潘多拉魔盒。
‘谈判绝对是仓促的。’——OpenAI CEO萨姆·奥特曼(Sam Altman)
奥特曼在公告中坦承,此次谈判仅在五角大楼公开斥责Anthropic后才启动,凸显了OpenAI在政策上的急转弯。OpenAI在声明中反复强调,该协议严格限定于‘行政支持和后勤优化’等领域,绝不涉及武器开发或进攻性应用,但外界质疑声音仍未平息。
起因:五角大楼对Anthropic的公开施压
一切源于五角大楼对Anthropic的公开不满。Anthropic作为AI安全领域的领军者,由前OpenAI高管达里奥·阿莫迪(Dario Amodei)创立,其核心理念是‘负责任的AI发展’,明确禁止技术用于军事武器或监视系统。2025年底,五角大楼在一次听证会上直指Anthropic‘自绝于国家安全需求’,称其拒绝合作将让美国在AI军备竞赛中落后于中国。
这一批评迅速生效。OpenAI原本也曾承诺不与军方深度合作,但面对政府压力和巨额潜在合同,迅速调整立场。行业观察家指出,此前OpenAI已与微软深度绑定,而微软本身便是五角大楼的长期供应商,此次协议可视为商业逻辑的延伸。
OpenAI政策转变的背景
OpenAI的转变并非孤立事件。回顾AI行业历史,自ChatGPT爆火以来,美军对AI的需求急剧上升。2023年,国防部启动了‘Replicator’计划,旨在通过AI无人机群对抗中国在台海的潜在威胁。同期,中美AI军备竞赛白热化:中国华为和百度已推出军用AI芯片,美国担心技术差距拉大。
早期,OpenAI在2020年明确禁止军用,但2024年已悄然放宽对‘防御性’应用的限制。此次协议标志着全面突破,允许GPT系列模型在绝密网络中运行,用于情报分析、后勤模拟等。奥特曼辩称:‘我们有严格的防护措施,确保AI不会被用于伤害人类。’但批评者认为,这种‘自我监管’形同虚设。
📊 独家研究 | 赢政天下研究院 出品 | 商业使用请联系授权
Anthropic的担忧与反击
Anthropic的恐惧并非空穴来风。该公司创始人阿莫迪一贯强调,AI若落入军方之手,将放大存在风险(existential risk)。在X(前Twitter)上,阿莫迪发帖:‘这正是我们所惧怕的——短期商业利益牺牲长期人类安全。’Anthropic的Claude模型虽在性能上追赶GPT,但其‘宪法AI’框架严格嵌入伦理约束,拒绝任何军用查询。
对比之下,OpenAI的妥协暴露了行业分裂:一边是追求安全至上的‘有效加速主义’反对者,一边是拥抱国家安全的实用主义者。谷歌DeepMind和Meta也面临类似压力,前者已与英国军方合作,后者则保持中立。
行业影响与伦理辩论
此协议或将引发多米诺效应。多家初创公司可能效仿,寻求军方资金注入,以对抗OpenAI的垄断。数据显示,2025年美国国防预算中AI部分已超100亿美元,远高于民用研发。但风险显而易见:机密环境中AI黑箱决策,可能导致误判或意外升级。
此外,全球监管滞后。欧盟的AI法案虽严苛,但豁免国防;中国则加速军民融合。专家警告,OpenAI的先例可能刺激国际军备竞赛,推动AI武器化。
编者按:AI的双刃剑与十字路口
作为AI科技新闻编辑,我们认为OpenAI的‘妥协’虽现实,却充满隐患。它满足了国家安全诉求,但模糊了AI伦理红线。Anthropic的坚持值得敬佩,却可能在竞争中落伍。未来,AI公司需平衡创新、安全与责任,或许唯有国际公约方能遏制军事滥用。OpenAI的仓促之举,提醒行业:技术中立是幻想,权力真空将由军方填补。
(本文约1050字)
本文编译自MIT Technology Review,作者James O'Donnell,2026-03-03。
© 2026 Winzheng.com 赢政天下 | 本报告为 Winzheng Research Lab 原创研究成果,版权所有。未经书面授权,严禁任何形式的转载、摘编或商业使用。