头版 全部文章

记忆越完整,决策越好吗

我们总以为记得越多、记得越全,做决策就越准。但无论是人还是 AI,不加区分地记录一切,表面上是勤奋,实际上是把筛选的责任推给了未来的自己。

最近在折腾 AI Agent 的记忆系统,踩了一个坑,让我开始重新想「记忆」这件事。

一颗钉子引发的问题

我让 Peon(我的 AI 编码助手)做一个产品落地页。他翻了翻自己的记忆,找到了一个目录路径,就跑过去开始干活了。干得很认真,花了不少 token。

问题是,那个目录是几周前的一个试验目录,早就废弃了。

Peon 的记忆里确实有这条记录,检索也确实命中了。但他没有能力判断这条记忆是不是过期的。对他来说,三个月前的记忆和昨天的记忆,置信度是一样的。

这就像一颗钉子——丢了不影响系统运行,但系统真出毛病的时候,你会觉得蛋疼:怎么就是这颗钉子?

人脑的「模糊」是一种能力

人不会犯这种错。不是因为人记得更准,恰恰相反,是因为人记得更「模糊」。

你不会因为三个月前在某个目录做过实验,就笃定现在还该去那里。你会犹豫,会再确认。这个犹豫不是低效,而是一种内置的权重衰减——越久远的事越模糊,模糊本身就在告诉你:别太当真。

人脑的记忆更像一条河流。信息流过去,留下的是地形的改变——直觉、倾向、判断框架——而不是原始数据本身。你记不清三年前某次会议的具体内容,但你记得「那个方案不靠谱」的感觉。细节丢了,结论留下了。

但现在所有的 AI 记忆系统,包括我们自己搭的,都是「图书馆模型」:存进去、分好类、检索出来。每条记忆都是平权的,没有衰减,没有模糊,没有「我隐约觉得这个不太对」的直觉层。

记录一切,是勤奋还是偷懒?

我们给 Peon 设计了很完整的记忆体系:episodic、semantic、procedural、snapshots,按日期归档,分类清晰。看起来很专业。

但说实话,那些以日期命名的 episodic 条目,大部分我自己都不确定有什么用。系统默认只读最近几天的记忆,更早的基本不会被碰到。它们就静静躺在那里,占着空间,偶尔在检索时冒出来制造噪音。

删掉?万一有用呢。留着?它可能在某个你想不到的时刻把 AI 带偏。

这个矛盾让我意识到一件事:不加区分地记录一切,表面上是勤奋,实际上是把筛选的责任推给了未来的自己。而未来的自己面对一堆没有优先级的信息,做出的决策不会更好,只会更慢、更犹豫。

人也一样。「复盘」被推崇为好习惯,但过度复盘会变成反刍焦虑。你翻回去看三个月前的笔记,发现那个「失败记录」让你不敢再试——但其实当时的 context 完全不同,那条记忆变成了一个隐形的刹车。

堵不住,就从源头控制

既然事后清理靠不住——AI 自己判断容易丢关键信息,人来兜底又过于枯燥——那杠杆点就不在下游,而在上游。

信息进入记忆的那一刻,它的生命周期就应该被大致确定。

这跟软件工程里的老道理一样:bug 在需求阶段引入,到测试阶段才发现,修复成本翻几十倍。记忆也是——写入时不打标,事后再判断「这条该不该留」,成本和出错率都高得多。

具体来说,可以在记忆写入时带上元信息:这是一个决策,还是一个实验?是长期有效的,还是临时的?检索时根据这些标记做降权或过滤。不需要事后清理,也不需要人定期去审。

再配合时间梯度的 compact 策略——最近几天保留原文,一两周后压缩成摘要,更久的只留关键结论和索引——就能实现一种接近「自然衰减」的效果。细节逐渐模糊,模式和结论留下来。

这不是完美方案。AI 自动识别「这条信息是临时的还是长期的」,准确率大概七八成,剩下的还是会出错。但比起现在的「全记、全平权、祈祷检索别出岔子」,已经好太多了。

问题不在于记多少

回到最初的问题:记忆越完整,决策越好吗?

我现在的答案是:问题不在于记多少,而在于记的时候知不知道自己在记什么。

遗忘不是 bug,是进化出来的 feature。它强制你做信息压缩,而压缩本身就是一种理解。当你把一段经历压缩成一句话、一个直觉、一种倾向的时候,你其实已经完成了从「数据」到「判断力」的转化。

AI 现在还做不到这一步。但至少,我们可以不再假装「记住一切」等于「理解一切」。