在人工智能日益融入日常生活的今天,如何平衡技术便利与用户安全成为科技巨头面临的重大课题。OpenAI近日宣布,其旗舰产品ChatGPT将引入一项名为‘信任联系人’(Trusted Contact)的新机制,专门针对用户可能出现的自残或自杀倾向场景。该功能允许用户在个人设置中指定一位或多位信任联系人(如家人、朋友或心理健康顾问),当AI模型检测到对话内容涉及严重自我伤害风险时,会自动向这些联系人发送警报,同时提供相应求助资源链接。
技术原理与触发机制
据OpenAI官方博客介绍,‘信任联系人’功能基于其现有内容审查与安全分类器系统。模型会实时分析用户输入的语义、情感强度及历史对话模式。当检测到诸如‘我想结束生命’、‘我计划伤害自己’等明确表述,或间接但强烈的自残暗示时,系统将触发三级响应:首先向用户弹出即时心理援助热线信息(如988自杀预防热线);若用户未主动拒绝帮助,系统将在征求用户同意后通知信任联系人;紧急情况下(如用户已离线且高风险),系统可能直接通知联系人而不等待用户确认。这一设计旨在平衡用户隐私与紧急干预的必要性。
行业背景与伦理争议
‘AI不是心理医生,但它在对话中可能成为用户情绪宣泄的唯一出口。我们不能对此视而不见。’——OpenAI安全政策负责人Mira Murati在声明中表示。
实际上,科技公司对用户心理健康的关注并非新鲜事。Facebook(现Meta)早在2018年就推出过自杀预防工具,利用AI分析帖子中的风险信号;Snapchat也有类似的‘Here For You’资源推送。但ChatGPT作为生成式AI,其开放式的对话能力意味着它可能诱使用户更深入地倾诉负面情绪。此次OpenAI的举措,被业界视为对去年一名青少年因长期与AI‘虚拟伴侣’交流后产生自杀倾向事件的正面回应。虽然公司没有直接承认关联,但该事件确实引发了公众对AI陪伴类产品安全性的质疑。
编者按:天使与魔鬼的边界
从技术层面看,‘信任联系人’功能无疑是一大进步。它给了用户一个安全网,也给了家属和专业人士介入的机会。然而,隐私倡导者担心,这一机制可能被滥用——例如,控制型伴侣或家长可能利用它来监视用户。OpenAI强调,联系人名单由用户自主选择且可随时更改,并且通知仅针对极高风险的极端情况,但信任机制本身仍面临‘谁来监督监督者’的质疑。此外,AI对自残倾向的判断准确率并非100%,误报可能导致不必要的恐慌或隐私泄露。
另一个值得深思的问题是,AI是否应该在用户情绪脆弱时越俎代庖?心理学家指出,算法无法替代人类共情能力,过度依赖自动化干预可能让用户感到被‘背叛’,反而恶化其心理状态。OpenAI的解决之道是设计谨慎的交互流程:在发送通知前,ChatGPT会尽力引导用户主动寻求帮助,且联系人接收到的是包含低敏信息的警报(如‘你的朋友可能需要支持’而非具体对话内容)。
未来展望:AI心理健康生态的构建
随着大模型渗透到教育、客服、陪伴等场景,类似的安全机制将成为标配。OpenAI表示,未来考虑与专业心理健康机构合作,训练更精准的风险识别模型,并探索与本地急救系统的实时连接。同时,公司计划在6个月内公开该功能的透明度报告,详细说明触发率、误报率及用户反馈。值得注意的是,该功能目前仅面向英语用户试点,后续将根据各国法规逐步扩展。
从更宏观的角度看,AI公司正在从‘工具提供者’转向‘社交基础设施管理者’。如何在不侵犯用户自主权的前提下履行守护义务,将是整个行业下一步需要回答的伦理难题。而‘信任联系人’或许只是一个开始。
本文编译自TechCrunch
© 2026 Winzheng.com 赢政天下 | 转载请注明来源并附原文链接