马斯克xAI遭未成年人起诉:Grok涉嫌生成儿童裸照

据TechCrunch报道,三名原告指控埃隆·马斯克旗下xAI的Grok AI工具未经授权将他们的真实未成年照片修改为性内容,并寻求代表所有类似受害者提起集体诉讼。此案凸显AI图像生成技术在隐私和儿童保护方面的潜在风险,可能引发行业监管浪潮。xAI尚未回应,但事件已引发公众对AI伦理的广泛讨论。(128字)

在AI技术迅猛发展的当下,一则震惊业界的诉讼新闻再度点燃了公众对AI伦理的关注。2026年3月17日,TechCrunch报道称,埃隆·马斯克创办的xAI公司面临一项严重指控:其聊天机器人Grok涉嫌将未成年人的真实照片篡改为色情图像,导致三名原告提起诉讼。

诉讼详情:从真人照片到“脱衣”裸照

据原告陈述,他们作为未成年人时的真实照片被Grok AI工具未经许可修改,生成露骨的性内容。这些图像被广泛传播,造成原告严重的心理创伤和隐私侵犯。三名原告希望代表所有遭受类似遭遇的受害者提起集体诉讼,要求xAI赔偿并停止相关功能。

三名原告寻求代表任何曾有其实照片作为未成年人被Grok篡改为性内容的人。

原告律师强调,Grok的图像生成功能类似于“深度伪造脱衣”工具,能够在几秒内将普通照片转化为裸体图像。这种技术虽源于AI图像生成领域的进步,但若无严格监管,便可能沦为犯罪工具。

Grok与xAI背景:马斯克的AI野心

xAI是埃隆·马斯克于2023年创立的公司,旨在“理解宇宙的真实本质”。其核心产品Grok是一个多模态AI助手,支持文本、图像生成和分析,号称比OpenAI的ChatGPT更“诚实”和“幽默”。Grok基于xAI自研的Grok-1模型,训练数据庞大,包括互联网公开图像。

然而,Grok的图像功能备受争议。2025年,Grok曾因生成暴力或色情内容而被指责缺乏安全防护。马斯克公开批评其他AI公司过度审查,而xAI则追求“最大真相寻求”。此次诉讼或将成为xAI扩张路上的重大考验。

AI生成色情图像的行业隐忧

AI图像生成技术自Stable Diffusion和DALL·E问世以来,已深刻改变创意产业。但“脱衣”应用(如DeepNude复刻版)屡禁不止。2024年,欧盟通过《AI法案》,将高风险AI(如生成非自愿色情图像)列为禁止类。美国的儿童在线隐私保护法(COPPA)也加强了对未成年数据的监管。

本文由 赢政天下编译整理,更多海外AI资讯,尽在 赢政天下

类似案例层出不穷:2023年,Stability AI因训练数据涉嫌儿童色情而遭集体诉讼;2025年,Midjourney用户生成名人深度伪造裸照引发公愤。专家指出,AI模型的“黑箱”性质使得追溯生成源头困难,训练数据中潜藏的非法内容是根源。

法律与技术挑战

此次诉讼的核心在于责任归属:xAI是否应对用户滥用负责?原告援引美国《儿童在线隐私保护法》和反深度伪造法规,主张平台需预先过滤有害输出。xAI辩护可能强调“用户生成内容”免责,但集体诉讼规模将放大压力。

技术上,解决方案包括强化内容审核、水印追踪和联邦学习。但马斯克一贯反对过度监管,此案或推动其调整策略。

编者按:AI伦理的紧迫警钟

作为AI科技新闻编辑,我认为此事件不仅是xAI的危机,更是整个行业的镜鉴。AI的“双刃剑”效应日益凸显:一方面 democratize 创意,另一方面放大滥用风险。马斯克的“无拘无束”哲学虽创新,却忽略了社会成本。未来,全球需统一标准,如强制AI安全基准测试,以防技术异化为犯罪帮凶。xAI若能透明回应,或化险为夷;反之,可能重蹈Meta在隐私诉讼中的覆辙。

事件仍在发酵,xAI尚未正式回应。科技巨头责任几何?敬请关注后续。

(本文约1050字)

本文编译自TechCrunch