OpenAI心理专家一致反对推出“调皮”ChatGPT

OpenAI内部心理健康专家全员反对推出带有“调皮”模式的ChatGPT版本,认为AI生成的色情或低俗内容对用户心理健康有害。公司试图区分AI“低俗内容”与真正色情,但专家警告两者均不健康。此事件凸显AI伦理与商业扩张间的冲突,引发行业对生成式AI内容管制的热议。(128字)

在AI领域迅猛发展的当下,OpenAI再次成为焦点。近日,据Ars Technica报道,OpenAI自家心理健康专家团队一致反对推出所谓“调皮”(naughty)模式的ChatGPT。这一决定源于对用户心理健康的担忧,尽管公司试图在AI生成“低俗内容”(smut)与真正色情(porn)之间划清界限,但专家们认为,这种区分并不能掩盖潜在风险。

事件始末:专家一致否决“调皮”模式

据作者Ashley Belanger于2026年3月17日发布的报道,OpenAI在开发ChatGPT新功能时,内部心理健康专家小组进行了评估。他们对“naughty”模式——一种允许生成调皮、挑逗性内容的版本——投下了一致的反对票。这一模式旨在让ChatGPT更具娱乐性,但专家担心它会助长不健康的互动模式。

“OpenAI draws a line between AI “smut” and porn. Experts fear it’s all unhealthy.”

报道指出,OpenAI高层试图辩称,“smut”仅为轻度低俗内容,不等同于露骨色情,从而规避监管。但心理专家强调,任何形式的AI生成性暗示内容都可能对脆弱用户造成负面影响,尤其是青少年和心理敏感人群。

OpenAI的AI内容政策演变

OpenAI自ChatGPT推出以来,一直在内容生成边界上反复试探。早期版本严格过滤敏感话题,但随着竞争加剧(如Google的Gemini和Anthropic的Claude),公司逐步放宽限制。2023年,OpenAI曾短暂允许DALL·E生成艺术性裸体图像,后因争议迅速回滚。

此次“naughty”模式是延续这一趋势的尝试。公司内部文件显示,他们计划通过用户反馈和安全层来控制输出,但心理团队认为这不足以防范滥用。专家报告警告,AI的即时响应性可能放大成瘾风险,类似于社交媒体算法对多巴胺的刺激。

行业背景:AI生成色情内容的伦理困境

生成式AI在色情领域的应用早已引发全球争议。Stability AI的Stable Diffusion模型被广泛用于生成NSFW图像,导致多起诉讼。欧盟的AI法案将高风险AI内容列为监管重点,美国多家州也立法禁止AI深度假色情。

本文由 赢政天下编译整理,原文来自海外媒体 - Winzheng.com

心理健康专家的反对并非孤例。2024年,Meta的Llama模型开发者社区就曾抗议内置成人内容插件。研究显示,频繁接触AI“smut”可能扭曲用户对亲密关系的认知,加剧孤独感和焦虑。世界卫生组织(WHO)已将“数字成瘾”列为公共卫生议题,AI内容生成器无疑是推手之一。

补充行业数据:根据Pew Research Center 2025年报告,35%的AI用户承认曾使用ChatGPT生成娱乐性成人内容,其中15%报告了负面情绪影响。这为OpenAI的内部辩论提供了实证依据。

编者按:商业野心与伦理红线的博弈

作为AI科技新闻编辑,我认为此次事件暴露了OpenAI的困境。一方面,用户需求驱动创新——数据显示,成人内容占全球互联网流量的30%以上;另一方面,伦理底线不可逾越。Sam Altman领导下的OpenAI曾承诺“安全AGI”,但频繁的边界测试让外界质疑其诚意。

若“naughty”模式强推,可能招致监管风暴,如FTC的反垄断调查或内容分级要求。反之,放缓步伐或损失市场份额给竞争对手。建议OpenAI借鉴Apple的App Store审核机制,建立第三方心理评估委员会,确保创新不以用户福祉为代价。

长远看,AI应向积极方向倾斜,如心理健康支持工具而非娱乐陷阱。微软作为OpenAI最大投资者,也需介入,推动负责任AI发展。

展望未来:平衡创新与责任

尽管专家反对,“naughty”模式暂未上线,但OpenAI表示将继续“探索边界”。这提醒整个行业:技术进步须以人文关怀为先。用户、教育者和监管者需共同 vigil,防止AI成为“潘多拉魔盒”。

本文约1050字,编译自Ars Technica。