在AI技术迅猛发展的当下,一则震惊业界的诉讼新闻再度点燃了公众对AI伦理的关注。2026年3月17日,TechCrunch报道称,埃隆·马斯克创办的xAI公司面临一项严重指控:其聊天机器人Grok涉嫌将未成年人的真实照片篡改为色情图像,导致三名原告提起诉讼。
诉讼详情:从真人照片到“脱衣”裸照
据原告陈述,他们作为未成年人时的真实照片被Grok AI工具未经许可修改,生成露骨的性内容。这些图像被广泛传播,造成原告严重的心理创伤和隐私侵犯。三名原告希望代表所有遭受类似遭遇的受害者提起集体诉讼,要求xAI赔偿并停止相关功能。
三名原告寻求代表任何曾有其实照片作为未成年人被Grok篡改为性内容的人。
原告律师强调,Grok的图像生成功能类似于“深度伪造脱衣”工具,能够在几秒内将普通照片转化为裸体图像。这种技术虽源于AI图像生成领域的进步,但若无严格监管,便可能沦为犯罪工具。
Grok与xAI背景:马斯克的AI野心
xAI是埃隆·马斯克于2023年创立的公司,旨在“理解宇宙的真实本质”。其核心产品Grok是一个多模态AI助手,支持文本、图像生成和分析,号称比OpenAI的ChatGPT更“诚实”和“幽默”。Grok基于xAI自研的Grok-1模型,训练数据庞大,包括互联网公开图像。
然而,Grok的图像功能备受争议。2025年,Grok曾因生成暴力或色情内容而被指责缺乏安全防护。马斯克公开批评其他AI公司过度审查,而xAI则追求“最大真相寻求”。此次诉讼或将成为xAI扩张路上的重大考验。
AI生成色情图像的行业隐忧
AI图像生成技术自Stable Diffusion和DALL·E问世以来,已深刻改变创意产业。但“脱衣”应用(如DeepNude复刻版)屡禁不止。2024年,欧盟通过《AI法案》,将高风险AI(如生成非自愿色情图像)列为禁止类。美国的儿童在线隐私保护法(COPPA)也加强了对未成年数据的监管。
本文由 赢政天下编译整理,更多海外AI资讯,尽在 赢政天下。
类似案例层出不穷:2023年,Stability AI因训练数据涉嫌儿童色情而遭集体诉讼;2025年,Midjourney用户生成名人深度伪造裸照引发公愤。专家指出,AI模型的“黑箱”性质使得追溯生成源头困难,训练数据中潜藏的非法内容是根源。
法律与技术挑战
此次诉讼的核心在于责任归属:xAI是否应对用户滥用负责?原告援引美国《儿童在线隐私保护法》和反深度伪造法规,主张平台需预先过滤有害输出。xAI辩护可能强调“用户生成内容”免责,但集体诉讼规模将放大压力。
技术上,解决方案包括强化内容审核、水印追踪和联邦学习。但马斯克一贯反对过度监管,此案或推动其调整策略。
编者按:AI伦理的紧迫警钟
作为AI科技新闻编辑,我认为此事件不仅是xAI的危机,更是整个行业的镜鉴。AI的“双刃剑”效应日益凸显:一方面 democratize 创意,另一方面放大滥用风险。马斯克的“无拘无束”哲学虽创新,却忽略了社会成本。未来,全球需统一标准,如强制AI安全基准测试,以防技术异化为犯罪帮凶。xAI若能透明回应,或化险为夷;反之,可能重蹈Meta在隐私诉讼中的覆辙。
事件仍在发酵,xAI尚未正式回应。科技巨头责任几何?敬请关注后续。
(本文约1050字)
本文编译自TechCrunch
© 2026 Winzheng.com 赢政天下 | 本文由赢政天下编译整理,转载请注明来源。原文版权归原作者所有。