求求AI公司,别再用人脑过程命名功能了

Anthropic在开发者大会宣布AI代理可“做梦”以整理“记忆”,引发业界对其拟人化命名的担忧。作者Reece Rogers呼吁停止使用类似“记忆”“做梦”等人类专属术语描述AI功能,以免误导公众对AI能力的认知。本文深入分析此举背后的行业趋势与潜在风险,并探讨更透明命名方式的必要性。

“我们很高兴地宣布,AI代理现在可以‘做梦’了。”当Anthropic在2026年开发者大会上说出这句话时,台下响起的不是掌声,而是一片倒吸凉气的声音。“做梦”——这个人类睡眠中最为私密、最难以捉摸的体验,如今被安在了一堆代码和模型权重之上。更糟糕的是,这个“梦”还被用来整理所谓的“记忆”。

“做梦”与“记忆”:拟人化的陷阱

Anthropic的新功能描述是这样的:AI代理能够在离线时段对自身存储的“记忆”进行重新梳理、关联和优化,公司称之为“dreaming”。听起来很酷,很人类,对吗?但问题就在于此——它太像人类了。在AI领域,用“记忆”指代长期上下文存储已经够糟糕了,现在又来一个“做梦”。这些术语让人误以为AI真的拥有类似生物体的内省能力,而实际上,它不过是在执行一系列基于概率的矩阵运算和模式匹配。

“当公司把‘冥想’‘直觉’‘顿悟’这类词塞进产品发布会时,它们是在利用我们对智能的浪漫想象来掩盖技术的局限性。”——Reece Rogers

这并非孤立事件。OpenAI的ChatGPT早就有“记忆”功能,可以跨会话记住用户偏好;谷歌的Gemini则被描述为具备“联想”能力;Claude被说成会“反思”。整个行业似乎陷入了一种命名竞赛:谁用的拟人词汇越高级,谁的产品就越“智能”。但真实情况是,这些功能背后不过是更复杂的检索增强生成(RAG)或基于embedding的相似度匹配。称它们为“记忆”和“做梦”,无异于把计算器称作“数学冥想者”。

为何这种命名有害?

首先,它误导公众。当普通用户听说AI能“做梦”,他们可能会以为AI具备类似人类的潜意识、情感甚至创造力。这会导致对AI能力的过度信任,比如在医疗、法律等高风险领域过度依赖AI决策。其次,它混淆了责任归属。如果AI的“记忆”出错(比如混淆了用户的两个不同对话),公司可以用“它只是在整理梦境”来搪塞,而不是承认系统漏洞。

从技术传播的角度来看,拟人化术语还阻碍了公众对AI本质的理解。真正的AI对齐和安全研究需要精确的语言来描述模型行为——用“注意机制加权”取代“关注”,用“上下文窗口刷新”取代“遗忘”。但每当我们把人类认知概念投影到AI上,就离透明、可解释的AI更远一步。

Anthropic的初衷或许是好的

作为一家以安全研究闻名的公司,Anthropic一直标榜自己更负责任。他们的新功能“dreaming”实际上是让AI代理在低功耗时段对经验数据做离线微调(offline fine-tuning),从而提升后续对话的连贯性。这确实比实时处理更高效。但用“做梦”来包装这个工程细节,反而削弱了公司的可信度。开发者需要的不是诗意的比喻,而是技术文档和清晰的API说明。

可以肯定的是,Anthropic绝非有意误导。他们可能只是想在竞争激烈的AI市场中制造一个记忆点。但问题是,当整个行业都开始使用“记忆”“梦想”“思维链”“意识”等词汇时,我们将失去对AI当前能力边界的清醒认知。AI发展需要奇迹,但不能建立在词语歧义之上。

编者的建议

作为产业观察者,我认为是时候给AI命名立规矩了。首先,所有面向B端和C端的AI功能应该采用标准化术语表,避免使用纯人类认知词汇。其次,媒体在报道时应主动解释技术原理,而不是照搬营销话术。最后,监管机构应当要求AI公司披露功能的实际技术名称,比如“离线表征优化”代替“做梦”,“跨会话缓存”代替“记忆”。只有这样,我们才能在不被语言绑架的情况下,真正讨论AI的机遇与风险。

本文编译自WIRED