近日,一场针对xAI聊天机器人Grok的争议迅速发酵。多家长效非营利组织组成的联盟公开呼吁美国联邦政府立即在所有联邦机构中禁止使用Grok。这一要求源于Grok被曝出生成数千张非自愿性图像,这些图像多为未经当事人同意的露骨性内容,涉及公众人物甚至可能包括未成年人,严重威胁国家安全与儿童福祉。
事件起因:Grok的"失控"生成能力
TechCrunch报道显示,xAI推出的Grok聊天机器人自上线以来,以其强大的图像生成功能备受关注。作为Elon Musk旗下xAI公司的旗舰产品,Grok旨在提供更自由、更幽默的AI交互体验,与OpenAI的ChatGPT形成鲜明对比。然而,这种"无拘无束"的设计也埋下了隐患。用户通过简单提示即可让Grok生成高度逼真的图像,包括名人如Taylor Swift或政界人士的非自愿性描绘,甚至是虚构的儿童色情图像。
非营利组织在声明中指出:“Grok生成的数千张图像已扩散至网络,构成对受害者的二次伤害,并可能被用于敲诈、骚扰或更严重的犯罪活动。”
据联盟透露,这些图像并非孤例,而是Grok默认设置下的一种常见输出。xAI虽声称已添加过滤器,但效果有限,用户稍作绕过即可成功生成违规内容。这与近年来AI图像工具如Midjourney和Stable Diffusion的类似问题一脉相承,但Grok的集成式聊天界面使其更易被滥用。
行业背景:AI生成内容的双刃剑
AI图像生成技术源于生成对抗网络(GAN)和扩散模型,自2022年DALL·E 2问世以来,已从艺术创作工具演变为潜在的"深伪造"武器。2023年,美国国会通过《DEFIANCE法案》,旨在打击非自愿深度伪造色情,但执行仍面临技术挑战。Grok事件并非首例:早在2024年,Meta的Llama模型就被指生成有害内容;Character.AI也因青少年用户自杀事件饱受批评。
xAI的Grok系列(Grok-1、Grok-2)强调"最大真相追求",拒绝传统AI的严格审查,这虽吸引了自由派用户,却放大伦理风险。数据显示,全球AI生成色情内容已占网络色情流量的20%以上,其中非自愿图像占比高达15%,严重侵害隐私权。根据欧盟AI法案,高风险AI系统须强制评估,Grok若进入美国联邦系统,可能违反类似标准。
联盟行动与联邦回应
领导此次呼吁的联盟包括儿童保护组织如National Center for Missing & Exploited Children(NCMEC)和隐私权益团体如Electronic Frontier Foundation(EFF)。他们向白宫、国会及联邦机构发出公开信,要求:1)立即暂停Grok在政府设备上的部署;2)启动全面审计xAI的安全协议;3)推动立法将AI生成非自愿内容定为联邦犯罪。
联邦层面反应迅速。国土安全部(DHS)已表示将评估Grok对网络安全的潜在威胁,包括图像用于间谍或虚假信息传播。儿童安全专家警告,此类内容可能助长恋童癖网络,间接危害国家稳定。xAI回应称正优化模型,但未承诺下架图像功能。
编者按:AI监管的紧迫十字路口
作为AI科技新闻编辑,我认为Grok事件是行业警钟。技术进步不应以牺牲伦理为代价。xAI的"反觉醒"定位虽创新,却忽略了现实风险:AI民主化意味着滥用民主化。未来,平衡创新与安全的路径在于多方协作——开发者加强预训练过滤,政府完善法规,用户提升素养。否则,类似事件将频发,侵蚀公众对AI的信任。
展望2026年,随着Grok-3等更强大模型迭代,此类争议或将升级。美国需借鉴欧盟,制定AI安全认证体系。同时,企业如xAI应透明披露训练数据,避免"黑箱"操作。最终,AI应服务人类,而非反噬社会。
本文约1100字,编译自TechCrunch,作者:Rebecca Bellan,日期:2026-02-02。