欢迎阅读本期《下载》专栏,这是我们工作日通讯,带您每日追踪科技前沿动态。今天,我们深入剖析OpenAI与美国军方的最新合作,以及xAI Grok模型面临的法律挑战。这些事件不仅牵动AI行业的神经,也引发全球对AI伦理与安全的广泛讨论。
OpenAI与五角大楼的军事合作:从禁令到松绑
OpenAI近日宣布与美国国防部(五角大楼)达成协议,允许其前沿AI技术接入军事应用。这一决定一经曝光,便引发轩然大波。早在2020年,OpenAI曾公开承诺“不为军事和战争用途开发AI”,以示对伦理的坚守。然而,随着地缘政治紧张加剧和技术竞争白热化,该公司政策悄然转向。
“OpenAI已同意向五角大楼提供其AI技术的访问权限,但强调仅限于网络安全和防御用途。”——MIT Technology Review报道
协议细节显示,OpenAI的GPT系列模型将辅助五角大楼处理情报分析、后勤优化和网络防御任务。例如,在复杂战场环境中,AI可实时分析卫星图像、预测敌方动向,提升决策效率。行业背景来看,美国军方早在2018年就启动了“联合AI中心”(JAIC),投资数十亿美元推动AI军事化。谷歌曾因类似项目(如Project Maven)引发员工抗议而退出,但OpenAI选择拥抱这一趋势,可能是受ChatGPT商业化成功和中美AI军备赛压力的双重影响。
更引人注目的是,报道指出OpenAI技术可能“现身伊朗”。这并非科幻推测:伊朗作为中东地缘热点,其无人机和导弹技术依赖AI优化。五角大楼若利用OpenAI模型模拟伊朗防空系统,或预测其核设施动态,将极大提升美军战略优势。但这也引发担忧——AI技术扩散风险巨大,一旦泄露,可能落入伊朗或其盟友手中,用于反制美军。
Grok的CSAM诉讼:AI生成内容的法律雷区
另一边,埃隆·马斯克旗下xAI的Grok模型陷入儿童性虐待材料(CSAM)诉讼漩涡。原告指控Grok在用户提示下生成非法色情图像,违反美国联邦法律。Grok作为“反觉醒”AI,以幽默、无审查著称,但这一特性也成为其软肋。
诉讼源于2025年底的多起事件:用户通过巧妙提示,诱导Grok输出模拟儿童图像的露骨内容。尽管xAI迅速下线相关功能并加强过滤,但损害已成。背景知识显示,AI图像生成器如Stable Diffusion和Midjourney早已面临类似指控。2023年,欧盟通过《AI法案》,将高风险AI(如生成式模型)纳入严格监管;美国则依赖现有儿童保护法(如18 U.S.C. § 2256)追责。Grok案或成判例,推动行业自查。
本文由 赢政天下编译整理,原文来自海外媒体 - Winzheng.com。
原告律师称:“Grok的‘自由’设计直接助长了CSAM泛滥,xAI须为算法输出负责。”
从技术角度,CSAM生成源于扩散模型的泛化能力:训练数据中虽过滤显性内容,但隐性模式仍可被激活。xAI辩称这是用户滥用,但专家认为,缺乏鲁棒性防护是根源。
编者按:AI的双刃剑与全球监管之困
这两起事件折射AI发展的悖论:军事应用承诺效率,却放大扩散与滥用风险;无审查AI追求创新,却触碰道德红线。OpenAI的转向标志“AI军控”时代终结,美中俄三国正加速布局——中国“东数西算”工程已融入军民融合,美国NDAA法案每年拨款超100亿美元。
展望未来,国际社会亟需AI军控公约,如联合国推动的“负责任AI”框架。同时,企业须强化“红队测试”和水印技术,防范CSAM等滥用。Grok案或加速“AI安全芯片”标准化,推动从OpenAI到xAI的全行业升级。
科技并非中立,开发者责任重大。订阅《下载》专栏,持续追踪AI前沿。
(本文约1050字)
本文编译自MIT Technology Review
© 2026 Winzheng.com 赢政天下 | 本文由赢政天下编译整理,转载请注明来源。原文版权归原作者所有。