2026 年 3 月,Anthropic 开始在 Claude Code 中灰度上线一个名为 AutoDream 的功能。[1] 这个功能的作用听起来几乎不像是编程工具应该做的事:它让 AI 在空闲时间"做梦"——通过一个后台子 Agent 自动扫描、合并、修剪累积的记忆文件,使未来的对话能更快地理解项目上下文。[2]
这个设计直接借鉴了神经科学中 REM 睡眠的记忆巩固理论:人类大脑在快速眼动睡眠阶段会将短期记忆转化为长期记忆、清除无关信息、建立新的神经连接。AutoDream 试图让 AI Agent 执行相同的认知过程。[3]
本报告从四个维度解析 AutoDream:核心机制(四阶段循环)、记忆架构(四层体系)、理论基础(Sleep-time Compute)、行业影响(竞品对比与认知架构趋势)。
AutoDream 是什么
一个模拟 REM 睡眠的后台记忆整理子 Agent
AutoDream 的核心定义写在它的系统提示词中——这段 prompt 本身就揭示了 Anthropic 的设计意图:[8]
翻译过来就是:你正在做梦——对你的记忆文件进行一次反思性扫描。将最近学到的内容合成为持久、有条理的记忆,以便未来的会话能够快速定位。
从功能角度看,AutoDream 是一个在后台运行的子 Agent(sub-agent),它的唯一职责是维护 Claude Code 的长期记忆文件。[4] 它不写代码,不回答问题,也不和用户交互——它只做一件事:整理记忆。
触发机制
AutoDream 有两种触发方式:[5]
用户在 Claude Code 中输入 /dream 命令即可立即启动一次记忆整理过程。适合在完成大量工作后、切换项目前主动清理记忆。[5]
当累积超过 5 个以上的会话后,AutoDream 会在约 24 小时间隔自动运行。用户无需干预,整理过程在后台静默完成。[4]
灰度上线与功能标志
截至 2026 年 3 月,AutoDream 仍处于逐步灰度上线阶段,通过服务端功能标志(feature flag)控制。[2] 其功能标志代号为 tengu_onyx_plover——一个刻意选择的无意义名称,符合 Anthropic 内部对实验性功能的命名惯例。[2]
tengu_onyx_plover 标志控制,Anthropic 正在逐步扩大覆盖范围。如果你在 Claude Code 中输入 /dream 没有反应,说明该功能尚未对你开放。[2]性能表现
据 ClaudeFast 报道的一个匿名社区案例,AutoDream 在不到 9 分钟内完成了对 913 个历史会话的记忆整理工作。[4] 这意味着即使是长期重度使用的项目,AutoDream 也能在可接受的时间内完成全量记忆梳理。
四阶段循环:Orient / Gather / Consolidate / Prune
从人类认知科学借鉴的记忆整理流水线
AutoDream 的执行过程被精确划分为四个阶段,每个阶段对应认知科学中记忆巩固的一个环节。[4] 这不是随意的设计——它直接映射了人脑在 REM 睡眠中处理记忆的方式:先了解现状,再收集新信息,然后合并冲突,最后清理冗余。[5]
MEMORY.md 索引文件,理解当前的记忆结构——有哪些主题文件、索引是否完整、哪些区域可能需要更新。这一步相当于人类在入睡初期大脑进行的"状态快照"。[4]MEMORY.md 的前 200 行作为初始上下文。如果索引文件过长,启动加载的记忆就会被截断,导致 Agent 对项目的理解不完整。AutoDream 的 Prune 阶段正是为了解决这个问题——将详细内容下沉到子文件,索引只保留精简的指针。[6]值得注意的是,AutoDream 运行时拥有对记忆文件的完整读写权限,但它不会修改 CLAUDE.md——那是用户手写的项目指令文件,AutoDream 的整理范围仅限于自动生成的记忆文件。[5]
四层记忆架构:从指令到做梦
Claude Code 如何构建完整的认知记忆体系
AutoDream 并不是孤立存在的功能——它是 Claude Code 四层记忆架构中的最顶层,负责维护和优化下面三层产生的记忆数据。[4] 理解这四层架构,才能理解 AutoDream 的真正价值所在。
MEMORY.md 和关联的主题文件中,是 AutoDream 整理的主要对象。[4]这个四层架构的精妙之处在于职责分离:L1 是用户的显式知识("你应该知道什么"),L2 是 Agent 的隐式学习("我观察到了什么"),L3 是当前工作记忆("我现在在做什么"),L4 是元认知维护("让我把学到的整理好")。[5]