脑子是个好东西:为龙虾和 CC 加装外脑之后,这俩货要上天了。最近收到好几个用户的问题,都说 OpenClaw 忘事,其实就是丢失上下文,尤其是多通道切换,你为了尝鲜微信企微飞书钉钉 tg 轮番上阵,看着背后是一个龙虾,其实谁也不知道谁在干啥。Claude Code 也有会话问题, 因为命令行也可以多窗口啊,tmux 之类的。退出重启,之前做的事如果有延续性,也得重新解释。为什么 OpenClaw 会“忘事”?因为 OpenClaw 是一个长期运行的 Agent 框架,有网关、有通道、有技能、有记忆系统。看上去已经有“记忆”能力了,但在真实使用场景中并非如此: - 对话拉长,工具调用变多,早期的重要信息就被模型的 context window 截断。 - Agent 或 Gateway 重启之后,之前的决策、约定、经验教训都消失了,只能靠人类再解释一遍。 - 同一个 Agent 在不同通道唤醒(IM 消息、cron、CLI 命令),每一段都像“分身”,彼此不知道对方干过什么。本质上,这是“会话上下文”和“长期记忆”混在一起导致的:会话上下文用于当前的推理,生命周期短;长期记忆是跨 session 存在的,生命周期长。OpenClaw 的基础设施并没有帮用户把这“两层记忆”真正管理好。 Claude Code 也存在这个问题,就是说,长期使用的话,龙虾和 CC 那点记忆系统根本不够用了。现在开源社区有不少做长期记忆,我目前在用的是 claude-mem,CC 和 龙虾都能外挂这套“长期记忆系统”,把 Agent 的行为流持续沉淀下来,再在新的会话中以压缩后的形式注入回来。 claude-mem 本质上就是一套 RAG + hook 工程,用生命周期的 hook 收集对话和工具调用,存 SQLite FTS5 + 向量库 Chroma,用 embedding 做语义检索,再把“相关记忆”塞回上下文。这类方案的老问题一直存在:记忆库越大,检索容易错抓相似但不相关的内容,有可能记不住,或者出现幻觉,好处主要是省 token、方便追溯。目前还不能指望它从根上解决上下文漂移的问题,但是个可用的状态。基本原理和安装方式可以看这里: https://github.com/thedotmack/claude-mem/blob/main/docs/i18n/README.zh.md中文的,读起来很容易懂,Claude Code 的安装可以参考这一篇: 在 Claude Code 里安装 claude-mem至于 OpenClaw,claude-mem 也为其做了专门的安装脚本,可以用一条命令完成从依赖检测到插件安装的全部流程: curl -fsSL https://install.cmem.ai/openclaw.sh | bash 我是用 CC 帮助龙虾安装的,哈哈。