在AI领域迅猛发展的当下,OpenAI再次成为焦点。近日,据Ars Technica报道,OpenAI自家心理健康专家团队一致反对推出所谓“调皮”(naughty)模式的ChatGPT。这一决定源于对用户心理健康的担忧,尽管公司试图在AI生成“低俗内容”(smut)与真正色情(porn)之间划清界限,但专家们认为,这种区分并不能掩盖潜在风险。
事件始末:专家一致否决“调皮”模式
据作者Ashley Belanger于2026年3月17日发布的报道,OpenAI在开发ChatGPT新功能时,内部心理健康专家小组进行了评估。他们对“naughty”模式——一种允许生成调皮、挑逗性内容的版本——投下了一致的反对票。这一模式旨在让ChatGPT更具娱乐性,但专家担心它会助长不健康的互动模式。
“OpenAI draws a line between AI “smut” and porn. Experts fear it’s all unhealthy.”
报道指出,OpenAI高层试图辩称,“smut”仅为轻度低俗内容,不等同于露骨色情,从而规避监管。但心理专家强调,任何形式的AI生成性暗示内容都可能对脆弱用户造成负面影响,尤其是青少年和心理敏感人群。
OpenAI的AI内容政策演变
OpenAI自ChatGPT推出以来,一直在内容生成边界上反复试探。早期版本严格过滤敏感话题,但随着竞争加剧(如Google的Gemini和Anthropic的Claude),公司逐步放宽限制。2023年,OpenAI曾短暂允许DALL·E生成艺术性裸体图像,后因争议迅速回滚。
此次“naughty”模式是延续这一趋势的尝试。公司内部文件显示,他们计划通过用户反馈和安全层来控制输出,但心理团队认为这不足以防范滥用。专家报告警告,AI的即时响应性可能放大成瘾风险,类似于社交媒体算法对多巴胺的刺激。
行业背景:AI生成色情内容的伦理困境
生成式AI在色情领域的应用早已引发全球争议。Stability AI的Stable Diffusion模型被广泛用于生成NSFW图像,导致多起诉讼。欧盟的AI法案将高风险AI内容列为监管重点,美国多家州也立法禁止AI深度假色情。
本文由 赢政天下编译整理,原文来自海外媒体 - Winzheng.com。
心理健康专家的反对并非孤例。2024年,Meta的Llama模型开发者社区就曾抗议内置成人内容插件。研究显示,频繁接触AI“smut”可能扭曲用户对亲密关系的认知,加剧孤独感和焦虑。世界卫生组织(WHO)已将“数字成瘾”列为公共卫生议题,AI内容生成器无疑是推手之一。
补充行业数据:根据Pew Research Center 2025年报告,35%的AI用户承认曾使用ChatGPT生成娱乐性成人内容,其中15%报告了负面情绪影响。这为OpenAI的内部辩论提供了实证依据。
编者按:商业野心与伦理红线的博弈
作为AI科技新闻编辑,我认为此次事件暴露了OpenAI的困境。一方面,用户需求驱动创新——数据显示,成人内容占全球互联网流量的30%以上;另一方面,伦理底线不可逾越。Sam Altman领导下的OpenAI曾承诺“安全AGI”,但频繁的边界测试让外界质疑其诚意。
若“naughty”模式强推,可能招致监管风暴,如FTC的反垄断调查或内容分级要求。反之,放缓步伐或损失市场份额给竞争对手。建议OpenAI借鉴Apple的App Store审核机制,建立第三方心理评估委员会,确保创新不以用户福祉为代价。
长远看,AI应向积极方向倾斜,如心理健康支持工具而非娱乐陷阱。微软作为OpenAI最大投资者,也需介入,推动负责任AI发展。
展望未来:平衡创新与责任
尽管专家反对,“naughty”模式暂未上线,但OpenAI表示将继续“探索边界”。这提醒整个行业:技术进步须以人文关怀为先。用户、教育者和监管者需共同 vigil,防止AI成为“潘多拉魔盒”。
本文约1050字,编译自Ars Technica。
© 2026 Winzheng.com 赢政天下 | 本文由赢政天下编译整理,转载请注明来源。原文版权归原作者所有。