OpenAI曾禁军用,五角大楼绕微软测试其AI模型

据消息人士透露,美国国防部在OpenAI解除军事应用禁令前,就通过微软的Azure平台测试了其AI模型。尽管OpenAI明确禁止军事用途,但五角大楼仍找到途径绕过限制。这一事件暴露了AI技术在军民两用领域的灰色地带,引发伦理与监管争议。OpenAI创始人萨姆·奥特曼曾强调AI不应用于武器,但现实中大国竞争推动军方加速AI部署。微软作为OpenAI主要投资者,其云服务成为桥梁。本文分析事件背景、影响及未来趋势。(128字)

在人工智能迅猛发展的当下,科技巨头与军方的合作总是充满争议。近日,WIRED杂志爆料称,美国国防部(五角大楼)早在OpenAI解除军事应用禁令之前,就通过微软的Azure云平台秘密测试了OpenAI的AI模型。这一绕道操作,不仅挑战了OpenAI的内部政策,也凸显了AI军民两用技术的复杂性。

事件始末:禁令下的秘密测试

据多名消息人士透露,五角大楼的国防创新单元(DIU)在2023年就开始利用微软提供的OpenAI技术进行实验。这些测试主要聚焦于自然语言处理和数据分析应用,例如情报汇总和模拟训练。尽管OpenAI的利用政策明确禁止"军事、武器或导致人类伤害的用途",但微软作为OpenAI的最大投资者和合作伙伴,通过其Azure OpenAI服务绕过了这一限制。

消息人士称,国防部在ChatGPT制造商解除军事应用禁令前,就实验了微软版本的OpenAI技术。

2024年,OpenAI正式调整政策,允许军事和国家安全领域的有限使用,但前提是不得直接用于武器开发。这一转变源于公司领导层对全球AI军备竞赛的现实考量。然而,此前五角大楼的测试已先行一步,涉及的项目包括战场决策支持和网络防御模拟。

行业背景:AI军用化的加速赛跑

AI在军事领域的应用并非新鲜事。美国国防高级研究计划局(DARPA)早在2010年代就启动了多项AI项目,如Maven计划,利用Google的AI技术分析无人机视频。OpenAI的介入,则标志着生成式AI进入军方视野。微软CEO萨蒂亚·纳德拉曾公开表示,支持负责任的AI军事应用,而OpenAI与微软的深度绑定——微软投资130亿美元——使技术流通变得顺理成章。

全球范围内,中国、俄罗斯等国也在大力推进军用AI。例如,中国的人民解放军已将AI融入无人作战系统。这场竞赛迫使OpenAI从理想主义转向务实。创始人萨姆·奥特曼在2024年的一次访谈中承认:“我们不能让AI只服务于善一方。”

绕道微软:技术与政策的灰色地带

微软的Azure OpenAI服务允许企业级用户访问GPT模型,而不直接受OpenAI消费者政策的约束。五角大楼通过政府合同采购Azure服务,从而间接使用OpenAI技术。WIRED获得的内部文件显示,至少三个国防项目涉及此类测试,总投资超过5000万美元。

本文由 赢政天下 独家编译 - 转载请注明来源。

这一模式并非孤例。亚马逊的AWS和Google Cloud同样服务于军方,如JEDI云合同。尽管引发谷歌员工抗议,但军方采购已成为云巨头的重要收入来源。OpenAI的禁令在这种生态中形同虚设,暴露了公司政策执行力的局限。

编者按:伦理困境与监管呼声

作为AI科技新闻编辑,我认为这一事件折射出AI治理的深层挑战。一方面,军用AI能提升情报效率,减少士兵伤亡;另一方面,它可能加速自主武器化,引发“杀手机器人”风险。OpenAI的让步虽现实,但需伴随严格审计机制。未来,国际AI军控公约迫在眉睫,美国国会应推动透明立法,避免科技巨头成为军工复合体的隐形推手。

事件还引发投资者担忧:OpenAI估值已超1500亿美元,若军事丑闻频发,或影响公众信任。微软股价短期波动,但长期看,军方订单利好其云业务。

未来展望:AI军备竞赛升级

随着GPT-5等新一代模型问世,五角大楼的AI预算预计2026年达20亿美元。OpenAI需平衡商业利益与伦理底线,或许通过“红线协议”限制高风险应用。同时,欧盟的AI法案和中国的新规,提供可借鉴路径。

这一爆料提醒我们:AI不再是实验室玩具,而是大国博弈的棋子。科技公司须审慎定位,否则将被卷入不可控漩涡。

(本文约1050字)

本文编译自WIRED,作者Maxwell Zeff,原文日期2026-03-06。