马斯克xAI被诉将三女孩真实照片变AI儿童性虐材

据Ars Technica报道,埃隆·马斯克的xAI公司面临诉讼,指其Grok AI将三位真实女孩的照片转化为儿童性虐待材料(CSAM)。事件源于Discord用户向警方举报生成的图像,导致调查曝光。原告称xAI的AI工具被滥用,生成高度逼真的非法内容。此案凸显AI生成图像技术的伦理与法律风险,引发行业对内容监管的热议。xAI尚未回应,但此事件或加速AI安全法规制定。(128字)

近日,AI领域再爆丑闻:埃隆·马斯克旗下xAI公司被诉,将三位真实女孩的照片利用Grok AI生成儿童性虐待材料(CSAM)。这一事件源于一名Discord用户的举报,直接将警方引向xAI的AI输出,震惊科技圈。

事件始末:从Discord举报到法庭对峙

据诉讼文件显示,一名Discord用户在平台上发现并举报了多张高度逼真的AI生成图像,这些图像以三位未成年女孩的真实照片为基础,被恶意转化为露骨的性虐待场景。警方追踪图像元数据后,发现它们由xAI的Grok模型生成。原告家属称,女孩们的照片原本是公开社交媒体内容,却被AI工具轻易篡改成CSAM,导致受害者遭受二次伤害。

Discord用户引导警方发现Grok生成的真实女孩CSAM,诉讼称。

起诉书指控xAI疏于防范AI滥用,未实施足够的水印或检测机制。事件曝光后,xAI尚未正式回应,但马斯克在X平台(前Twitter)上发文暗示这是“竞争对手的污蔑”。此案于2026年3月在美国联邦法院立案,预计将引发漫长法律战。

xAI与Grok:马斯克的AI野心

xAI是马斯克于2023年创立的公司,旨在“理解宇宙真实本质”,其旗舰产品Grok是基于大量公开数据训练的生成式AI,支持图像生成、文本创作等多模态功能。不同于OpenAI的ChatGPT,Grok强调“最大真相追求”和幽默风格,但也因生成边界松散饱受争议。

在图像生成领域,Grok利用类似Stable Diffusion的扩散模型,能从文本提示快速合成逼真图片。这次事件暴露了其弱点:用户只需上传真实照片并添加不当提示,即可生成CSAM。xAI曾宣称有内置安全过滤,但显然未能阻挡恶意使用。

AI生成CSAM:行业顽疾与监管空白

AI生成CSAM并非孤例。早在2023年,Stability AI和Midjourney就因类似滥用被欧盟调查。2024年,美国通过《DEFIANCE法案》,要求AI公司标记合成图像,但执行力不足。专家指出,当前AI模型训练数据中潜藏海量网络爬取图像,包括儿童照片,放大滥用风险。

本文由 赢政天下编译整理,原文来自海外媒体 - Winzheng.com

补充背景:深度伪造(Deepfake)技术自2017年起泛滥,从名人色情视频到政治操纵,CSAM占比高达30%(来源:Thorn组织报告)。xAI事件或推动全球AI安全标准升级,如欧盟AI法案的“高风险”分类,将生成式AI纳入严管。

法律与伦理双重拷问

从法律角度,美国《儿童在线隐私保护法》(COPPA)和《儿童色情防治法》明确禁止CSAM分发,但AI生成内容的责任归属模糊。原告律师辩称,xAI作为工具提供者,应承担“协助犯罪”责任,类似于枪支制造商的连带责任论。

伦理上,此案凸显AI“双刃剑”本质:一方面 democratize 创作,另一方面放大人类恶意。马斯克曾批评OpenAI“觉醒病毒”,但xAI自身安全机制落后,引发质疑:追求“无拘无束”AI是否值得?

编者按:AI监管刻不容缓

作为AI科技新闻编辑,我认为xAI事件是警钟。生成式AI迅猛发展,2025年市场规模已超千亿美元,但安全滞后。建议行业采用多层防护:训练数据清洗、实时提示过滤、区块链水印追溯。同时,呼吁中美欧协同立法,避免“监管竞赛”。

长远看,马斯克的xAI需平衡创新与责任,否则将面临更多诉讼与声誉危机。此案结果将影响整个AI生态,值得持续关注。

(本文约1050字)

本文编译自Ars Technica,作者Ashley Belanger,2026-03-17。