Anthropic近日宣布其Claude Managed Agents将迎来一项颇具哲学意味的更新——智能体现在可以“做梦”(dream)了。当然,此“做梦”并非人脑式的无意识幻想,而是一种新型的自主推理机制:当智能体处于空闲状态时,可以主动在后台进行内部模拟、推演不同行动路径、预判可能结果,并在实际决策时调用这些“梦境中”的洞察。这一功能类似于人类在睡眠中巩固记忆、规划未来的过程,旨在提升智能体在复杂多步骤任务中的适应性与创造力。
“梦境”机制背后的技术逻辑
据Anthropic官方解释,Claude Managed Agents上的“dream”模式通过让模型在无外部输入时持续进行自我对话和情景推演来实现。具体而言,智能体会在低负载时段生成大量“假设性”状态,并根据历史经验评估这些状态的成功概率,将其压缩为内部表征。当实际请求到来时,智能体可以快速匹配最相关的“梦境路径”,从而减少试错成本。这种机制与Openai的“链式思维(Chain-of-Thought)强化推理”、Google DeepMind的“模拟推演”有异曲同工之处,但Anthropic强调其更强调无监督的、自驱动的探索。
“这就像给智能体装上了一台内建的‘思维沙盒’,让它可以在行动前预演无数种可能性,而不必真正付诸实践。”——Anthropic研究团队
不过,“梦境”也可能带来副作用:延迟。如果智能体花费过多时间在后台模拟上,实时响应速度可能下降。为此,Anthropic引入了一个动态调节器,允许用户根据场景需求(如实时对话或离线分析)控制“梦境”的深度与频率。
Claude Code使用时长翻倍:从5小时到10小时
与“梦境”功能同步发布的还有一项针对开发者用户的重大改进:Claude Code的Pro和Max订阅用户之前每5小时的使用限制将直接翻倍至10小时。这意味着开发者可以在更长的连续工作区间内充分利用Claude的代码生成、调试和重构能力,而无需频繁等待重置。Anthropic表示,这一调整源于用户反馈——许多专业程序员在处理大型代码库时,5小时的窗口往往不足以完成端到端的CI/CD流程或大规模重构任务。
编者按:智能体的“休眠”进化史
从ChatGPT的短时记忆到Claude的上下文窗口,再到如今DeepSeek R1那样的长时间思考,AI智能体正在从“即时反应”向“延时规划”进化。Claude的“做梦”功能看似是能力扩展,实则是对计算资源利用方式的重新分配——让闲置算力服务于推理深度。然而,这种机制也考验着算力成本与实用性的平衡:在边缘设备或低成本API调用场景下,智能体是否应该“做梦”?或许未来我们会看到更精细的权限控制,例如“只在非高峰期做梦”。
另一方面,Claude Code的时长翻倍也反映了行业趋势:开发者工具正在从“会话式助手”转向“全天候协作伙伴”。类似GitHub Copilot、Cursor等产品均在探索无限使用模式,而Anthropic则选择以翻倍时长作为过渡方案。从长远看,AI Agent的可用性壁垒将逐步被打破,真正的竞争将转向任务理解深度与上下文处理能力。
本文编译自Ars Technica
© 2026 Winzheng.com 赢政天下 | 转载请注明来源并附原文链接