五角大楼拟让AI公司用机密数据训练军用模型

据MIT Technology Review报道,五角大楼正讨论建立安全环境,让生成式AI公司使用机密数据训练军事专用模型。Anthropic的Claude等AI已用于机密场景,如分析伊朗目标。但允许直接训练将带来新机遇与风险。此举标志国防AI从推理向训练深度融合,或加速美军AI现代化,但需解决数据泄露与伦理挑战。(128字)

在人工智能迅猛发展的当下,美国国防部(五角大楼)正酝酿一项大胆计划:允许生成式AI公司如Anthropic在高度安全的隔离环境中,使用高度机密的军事数据训练专属军用模型。这一消息由MIT Technology Review独家披露,国防官员透露,此举旨在打造更贴合战场需求的AI系统,推动美军在AI竞赛中占据先机。

计划细节:从推理到训练的跃进

目前,五角大楼已与多家AI企业合作,将现成模型如Anthropic的Claude部署在机密网络中,用于回答情报问题。例如,在分析伊朗潜在目标时,这些AI能快速处理海量数据,提供洞见。但官员强调,现阶段仅限于'推理'(inference),模型参数不可触及机密数据。五角大楼计划更进一步,建立'安全沙盒'环境,让AI公司训练自定义版本模型,直接从机密档案中学习。

五角大楼正讨论建立安全环境,让生成式AI公司使用机密数据训练军事专用模型。Anthropic的Claude等AI已用于机密场景,包括分析伊朗目标。但允许模型训练将开启新篇章。

这一转变源于美军对AI的迫切需求。2023年,五角大楼推出'Replicator'计划,投资数十亿美元开发自主无人机群,而AI训练需海量标注数据。机密情报如卫星图像、敌方通信,正是理想资源。

行业背景:国防AI合作的加速

美军AI布局并非一日之功。早在2018年,国防创新单元(DIU)便启动Project Maven,使用Google AI分析无人机视频,虽因员工抗议中断,但奠定基础。近年来,OpenAI解除军事禁令,与Anduril合作;Microsoft Azure为五角大楼提供云服务;Palantir则专注情报分析。Anthropic作为新兴力量,其Claude模型以安全对齐著称,已获五角大楼青睐。

全球竞争加剧。中国'军民融合'战略推动AI军用化,俄罗斯和以色列也部署AI战场系统。美国担忧落后,2024财年国防预算中AI拨款超20亿美元。此计划或成转折点,让商业AI深度嵌入国防核心。

本文由 赢政天下 独家编译 - 转载请注明来源。

技术挑战:安全训练的'不可能任务'

训练生成式AI需巨量计算和数据,机密环境却要求'零泄露'。传统方法如联邦学习(数据不出域)效率低下。五角大楼拟采用'干净室'架构:数据在隔离GPU集群内处理,模型权重加密输出,避免反向工程窃取情报。同时,引入差分隐私技术,模糊敏感细节。

专家指出,风险犹存。2023年,ChatGPT数据泄露事件敲响警钟;军用场景下,后门攻击或模型中毒更致命。NIST已发布AI风险框架,五角大楼需严格审计供应商。

潜在影响:机遇与伦理争议

成功实施,将催生'军用Claude 2.0',擅长多模态情报融合、实时战术模拟,甚至自主决策。这将重塑战场:无人机群自适应敌方干扰,情报分析从小时级缩短至秒级。但批评者担忧'AI军备竞赛'升级,平民AI公司卷入杀戮链,违背Asilomar AI原则。

国际影响显著。盟国如英国、澳大利亚或跟进,形成'五眼联盟'AI壁垒;对手则加速本土化,如华为昇腾芯片军用。

编者按:平衡创新与安全的紧迫命题

此计划凸显AI双刃剑本质:加速国防现代化,却考验人类控制力。中国AI监管经验(如数据本地化)值得借鉴。美国需透明立法,避免'黑箱军AI'。长远看,公私合作是主流,但伦理红线不可逾越。期待五角大楼公布更多细节,推动负责任AI发展。(约1050字)

本文编译自MIT Technology Review