在人工智能迅猛发展的当下,美国国防部(五角大楼)正酝酿一项大胆计划:允许生成式AI公司如Anthropic在高度安全的隔离环境中,使用高度机密的军事数据训练专属军用模型。这一消息由MIT Technology Review独家披露,国防官员透露,此举旨在打造更贴合战场需求的AI系统,推动美军在AI竞赛中占据先机。
计划细节:从推理到训练的跃进
目前,五角大楼已与多家AI企业合作,将现成模型如Anthropic的Claude部署在机密网络中,用于回答情报问题。例如,在分析伊朗潜在目标时,这些AI能快速处理海量数据,提供洞见。但官员强调,现阶段仅限于'推理'(inference),模型参数不可触及机密数据。五角大楼计划更进一步,建立'安全沙盒'环境,让AI公司训练自定义版本模型,直接从机密档案中学习。
五角大楼正讨论建立安全环境,让生成式AI公司使用机密数据训练军事专用模型。Anthropic的Claude等AI已用于机密场景,包括分析伊朗目标。但允许模型训练将开启新篇章。
这一转变源于美军对AI的迫切需求。2023年,五角大楼推出'Replicator'计划,投资数十亿美元开发自主无人机群,而AI训练需海量标注数据。机密情报如卫星图像、敌方通信,正是理想资源。
行业背景:国防AI合作的加速
美军AI布局并非一日之功。早在2018年,国防创新单元(DIU)便启动Project Maven,使用Google AI分析无人机视频,虽因员工抗议中断,但奠定基础。近年来,OpenAI解除军事禁令,与Anduril合作;Microsoft Azure为五角大楼提供云服务;Palantir则专注情报分析。Anthropic作为新兴力量,其Claude模型以安全对齐著称,已获五角大楼青睐。
全球竞争加剧。中国'军民融合'战略推动AI军用化,俄罗斯和以色列也部署AI战场系统。美国担忧落后,2024财年国防预算中AI拨款超20亿美元。此计划或成转折点,让商业AI深度嵌入国防核心。
本文由 赢政天下 独家编译 - 转载请注明来源。
技术挑战:安全训练的'不可能任务'
训练生成式AI需巨量计算和数据,机密环境却要求'零泄露'。传统方法如联邦学习(数据不出域)效率低下。五角大楼拟采用'干净室'架构:数据在隔离GPU集群内处理,模型权重加密输出,避免反向工程窃取情报。同时,引入差分隐私技术,模糊敏感细节。
专家指出,风险犹存。2023年,ChatGPT数据泄露事件敲响警钟;军用场景下,后门攻击或模型中毒更致命。NIST已发布AI风险框架,五角大楼需严格审计供应商。
潜在影响:机遇与伦理争议
成功实施,将催生'军用Claude 2.0',擅长多模态情报融合、实时战术模拟,甚至自主决策。这将重塑战场:无人机群自适应敌方干扰,情报分析从小时级缩短至秒级。但批评者担忧'AI军备竞赛'升级,平民AI公司卷入杀戮链,违背Asilomar AI原则。
国际影响显著。盟国如英国、澳大利亚或跟进,形成'五眼联盟'AI壁垒;对手则加速本土化,如华为昇腾芯片军用。
编者按:平衡创新与安全的紧迫命题
此计划凸显AI双刃剑本质:加速国防现代化,却考验人类控制力。中国AI监管经验(如数据本地化)值得借鉴。美国需透明立法,避免'黑箱军AI'。长远看,公私合作是主流,但伦理红线不可逾越。期待五角大楼公布更多细节,推动负责任AI发展。(约1050字)
本文编译自MIT Technology Review
© 2026 Winzheng.com 赢政天下 | 本文由赢政天下编译整理,转载请注明来源。原文版权归原作者所有。