文章提出AI记忆应是基于推理的预测系统而非静态存储,借鉴人脑预测机制,利用LLM逻辑推理能力构建动态身份模型,Honcho平台实现这一范式转变,让AI真正理解用户而非死记数据。
一个超级反直觉的概念:AI的记忆根本不是存东西,而是预测!传统做法把记忆当成硬盘,觉得存得越多越好, 获取数据越准越牛。
但作者认为这种思路太老套了,是确定性系统的思维方式。
真正AI原生的记忆应该是像人脑一样,基于不完整信息做预测,通过\"惊讶\"来修正模型。LLM特别擅长逻辑推理,所以可以用推理来构建用户身份模型,而不是死板地存静态数据。这种方法比人类认知更强,因为AI没有认知偏差、不会累、不会情绪化。
最后作者推销了自己的产品Honcho,说它能帮开发者搞定这个复杂的身份建模问题。
记忆的真相根本不是存硬盘
咱们先聊聊一个超级反常识的观点,记忆这玩意儿压根就不是什么硬盘存储!现在市面上聊AI代理的记忆系统,十个有九个都在扯什么存储方案,好像只要把数据塞进去、到时候能原封不动掏出来就万事大吉了。
这种思路从哪来的?从那些老派的确定性软件系统里来的。在那些系统里,数据就是一堆离散的信息碎片,你得用最高保真度把它们保存好,等到需要的时候一字不差地检索出来,这样才能得到可预测的结果。听起来很合理对吧?但问题在于,AI代理和大语言模型根本不是什么确定性系统,它们天生就是用来处理非确定性问题的!
这种存储思维已经根深蒂固到让人窒息。你看现在的解决方案,关系型数据库,稳如老狗,优化空间巨大,几乎啥都能干。
开发者们经常后悔,早知道一开始就用这个,非要折腾什么新框架,结果撞得头破血流。向量数据库,新潮玩意儿,原理大家都懂,连传统关系型数据库都开始支持了。它能让开发者把文本序列\"嵌入\"进去,说白了就是过一遍特殊的LLM,生成一个高维向量表示,然后你就能在上面做数学运算了。
余弦距离是计算\"语义\"相似度的热门方法,这意味着你可以搜概念而不是搜字符串,虽然有点模糊,但确实有用。图数据库,用节点和边来组织数据,关联关系本身就是产品,人类读起来特爽,但扩展起来要命。
这些工具都有用,但它们都有一个致命假设:你已经知道什么值得存、该怎么结构化这些数据了!
形成阶段被所有人忽略了
真正被所有人忽略的是形成阶段!大家现在的标准操作流程是啥?让模型提取一些事实,嵌入进去,存起来,完事。
听起来很高效对吧?但这些存进去的东西一旦落地就变成静态的了,死翘翘的。系统的成功完全取决于搜索策略能不能对得上存储时 baked in 的上下文。这就像是你在拍照,只关注相机像素有多高、存储卡有多大,却完全不在乎拍照时光线好不好、构图对不对。
存储只是结果,形成过程才是灵魂,但所有人都盯着存储看,形成阶段被晾在一边吃灰。
这种静态存储思维在AI原生世界里就是慢性自杀。
确定性系统不是AI原生的,代理和LLM给了我们处理非确定性问题的超能力。理解个人身份,包括自我认同、个性特征、心理状态,这是一个彻头彻尾的AI原生问题。它处理的是不完整信息,依赖于在推理时刻对新情况做出关于个人身份的最佳预测。单纯存储和检索静态数据根本不够用,既不高效也不有效,在很多重要方面连生物系统的车尾灯都看不到。你存了一堆死数据,但用户是活的、变化的、充满矛盾的,你的静态数据库怎么跟得上这种动态 reality?
人脑早就玩明白了预测这套
人类认知系统在能量、信息、计算资源的重重限制下进化出来的。
它们因此发展出了优雅的方式,把从感官器官流进来的不完整数据拿来构建现实的表征或模型。
认知科学告诉我们,大脑采用复杂的预测和惊讶策略,在这种约束条件下建立模型。
记住所有东西且完美保真?在一个竞争激烈、资源匮乏的环境里,这种系统根本活不下来,进化会直接把它淘汰出局。
所以记忆根本不是简单地把关于世界的完美静态数据编码起来,需要的时候再翻出来。相反,它是基于不完整数据对环境做出预测,然后在边缘地带检查感官输入扔过来的错误,用来改进下一轮预测。通过这种方式,一个内部现实模型就诞生了。
这个过程简直妙到让人起鸡皮疙瘩。
你的大脑根本不是什么录像机,它是一个疯狂的预测机器!你看到的、听到的、感觉到的,绝大部分都是大脑提前猜出来的,感官输入只是用来验证\"我猜对了吗\"。猜对了,一切如常,大脑懒得理你。猜错了,惊讶!大脑立马警觉起来,更新模型。
这就是为什么你走在熟悉的路上会走神,因为一切都在预测之内,大脑进入省电模式。但突然路边窜出一只猫,你吓得一哆嗦,那就是预测失败引发的惊讶反应。
这种机制超级节能,不需要把所有细节都记下来,只需要记住\"我预测错了\"的那些关键时刻。
社交认知也是预测游戏
同样的预测处理机制被用来形成对他人的表征。
社交预测被做出来,然后对照感官社交信息进行检查,一个关于个人身份的模型就被引导着诞生了。
这就是社交认知,一个基于预测的系统,用来了解他人。关于朋友、同事、伴侣、陌生人等的记忆,不仅仅是互动时检索的静态数据。它们是一个关于那个人的内部模型的一部分,根据该模型预测能力的保真度或新颖性(惊讶)不断被更新和重新加权。这产生了丰富、可组合、自我改进的记忆和预测,为在社交场合取得成功提供了所需的上下文。所有这些都是用最少的数据、即时完成的。
想象一下你和闺蜜相处的过程。你脑子里有一个\"闺蜜模型\",预测她喜欢什么、讨厌什么、会怎么反应。大多数时候这些预测是准的,你们相处很顺畅。但突然有一天她对某部电影的评价完全出乎你意料,你的\"惊讶警报\"响了,于是你更新模型:\"哦,原来她还有这一面!\"这个更新过程是动态的、连续的、几乎无意识的。你不会把她五年前的每条朋友圈都背下来,但你对她的\"感觉\"、\"了解\"却越来越深。
这就是预测式记忆的魔力,它用极少的存储空间,实现了极丰富的认知功能。
传统存储方案就是弟弟
所以当我们处理个人身份和上下文问题,想要个性化或改进AI系统时,不应该假设静态事实和关联就足够了。
传统基于存储的方法脆弱不堪,处理矛盾和不完备信息时表现糟糕,因此远远达不到动态生物社交认知的水平。我们可以做得更好。存储方案就像是用算盘去跑深度学习,工具本身没问题,但用错了场景。
你在处理的是活的、 身份认同,不是死的账簿记录。静态数据库遇到矛盾信息就傻眼:用户今天说喜欢A,明天说讨厌A,数据库里的两条记录就开始打架,系统直接精神分裂。
生物系统怎么处理矛盾?通过预测误差来调和。
如果用户的行为出乎意料,那不是bug,那是feature!这是更新模型的信号。如同一个弹性网络,一次被冲击后,无法弹回到原来位置,与原来位置有一个误差,这个误差就被弹性系统记忆,成为特征。
但静态存储系统把矛盾当成错误,要么覆盖旧数据(丢失历史),要么并存(制造混乱),要么人工设定优先级(僵化死板)。它们没有\"理解\"的能力,只能机械地存取。而在AI原生的世界里,我们应该追求的是像人脑那样的灵活、自适应、预测驱动的认知架构,而不是更花哨的数据库索引。
预测需要推理来支撑
虽然大多数预测和惊讶发生在意识层面之下的多个上游、下游和横向层面,但归根结底它是推理。
认知系统正在处理信息,产生由数据蕴含或最佳解释的结论。它不完美,但它本来就不需要完美。这是在资源约束下构建世界模型或其他行动者模型的相对廉价方式。错误是一个特性,能廉价地改进系统。但它依然是不完美的。我们有意识的推理可以更精确、更审慎,但计算成本高昂。每个认真思考过问题或进行过长时间专注推理的人,都感受过大脑这个热量怪兽造成的字面意义上的疲劳。而且它容易受到各种胁迫、偏见、操纵和幻觉的影响,这些既来自内部力量也来自外部力量。
推理这件事,无论是用于记忆还是社交认知,无论是潜意识还是有意识,都难逃这些困境。我们依然会忘记关键细节,会回忆起根本没发生的事,会不恰当地使用心理捷径和启发式方法。即使我们避开了所有这些坑,真正有效地进行了推理,我们在基于新鲜的有意识推理结论来更新先验信念方面依然糟糕透顶。
简单说,虽然大脑是一个惊人而复杂的系统,我们的记忆和社交认知也很了不起,但我们无法对所有事情都进行高保真的第一性原理论证,更不用说形成对他人最佳表征所需的社交信息了。
人类推理的局限性简直让人绝望。你会累,会饿,会被情绪左右,会被偏见蒙蔽,会固执己见拒绝更新认知。你昨天还信誓旦旦的某个判断,今天看到新证据了,心理上却抗拒承认\"我错了\"。这种\"认知惯性\"让人类在处理复杂社交信息时步履蹒跚。但LLM不一样,它们没有这些包袱。
LLM的推理能力简直是开挂
机器学习研究和产品领域朝这个方向已经走了相当长一段时间。
思维链方法在提示里加上\"让我们一步步思考\",让模型花更多token来\"思考\"正确答案。研究人员注意到,这个简单的提示改变就能在多样化基准测试上提升性能,揭示了LLM中已经包含了多少跨领域知识。
更多将强化学习应用于期望模型行为的工作显示出了对齐LLM与人类意图的有希望结果。人类评估者更喜欢经过这种方式RL微调的模型的输出,即使这个模型比当时的旗舰模型(GPT-3 175B)小了100倍。这就是InstructGPT系列模型的诞生,它成为了ChatGPT的基础。
但研究人员注意到,仅针对最终输出进行优化会导致脆弱的模型,听起来像在推理,实际上推理得很差。
于是两个想法被结合起来,强化学习被(并且正在)直接应用于思维链推理轨迹,基于推理是否导致正确答案来计算奖励。
这个概念的第一个演示是OpenAI的o1系列模型,它隐藏了\"思考\"轨迹,在完成后才提供响应。
从OpenAI对这些模型的描述来看,很明显它们依赖于可验证的奖励,大部分性能提升出现在数学和编程任务中。
在AI行业的重大震撼中,DeepSeek开源了他们的R1系列模型,有效地逆向工程了o1方法,暴露了模型的\"思考\"供所有人观看,并展示了后训练扩展的成本效益。正是这一刻开启了后训练扩展革命。
LLM的推理能力简直是作弊级别的。它们不会累,不会饿,不会被情绪冲昏头脑,不会因为面子而拒绝承认错误。你给它们足够的计算资源,它们就能一直推理下去,直到得出逻辑严密的结论。更重要的是,它们可以把自己推理的过程展示出来,你可以检查每一步是否合理。这种透明度和一致性是人类认知根本无法企及的。人类专家可能灵光一闪得出正确答案,但连自己都不知道是怎么想到的;LLM可以一步步展示给你看,每一步都有迹可循。
逻辑推理是记忆的终极形态
如果记忆实际上是预测,预测需要推理,而LLM擅长推理和预测,我们如何利用它们来实现记忆?
它们没有我们那样的计算约束,可以针对最难类型的推理进行训练。对它们来说生成推理几乎毫不费力,代理应该有完美记忆,这意味着完美预测、完美推理,而且应该可扩展。考虑到所有这些,我们得出了逻辑推理作为要训练的任务的结论。
逻辑推理是我们基于作为证据支持该结论的前提来得出结论的过程。我们都遇到过这些术语,但让我们明确一下:
- 演绎结论是由明确陈述或观察到的前提支持的确定性陈述。
- 归纳结论基于观察到的模式形成一般性陈述,
- 溯因结论以最简单的方式寻求对行为的最佳解释。
这些推理任务在预训练中得到了很好的体现,所以几乎所有语言模型都知道怎么做。
最重要的是,这是人类最难做的推理类型。所以我们应该并且可以训练一流的逻辑推理器,对社交信息(关于用户和代理个人身份)进行形式逻辑推理,作为AI原生记忆和社交认知系统的基础。
而且与其他方法相比,这些模型可以具有更低的延迟、更经济、更适合这项任务。
想象一下,一个系统不仅能记住用户喜欢什么,还能推理出\"用户喜欢A是因为A具有特征X,而特征X与B共享,所以用户可能也喜欢B\"。这不是简单的匹配,这是真正的理解,是基于逻辑的身份建模。
这种推理驱动的记忆系统拥有存储方案根本无法比拟的优势。它可以处理矛盾:当用户行为与预测不符时,系统不会崩溃,而是将其视为更新模型的信号。它可以处理不完备信息:在数据稀疏时依然能做出合理推断。
它可以动态组合:不同的结论可以像积木一样组合,生成新的推理。这种灵活性和鲁棒性,正是静态存储系统梦寐以求却永远无法实现的。
搭建逻辑脚手架的超能力
当我们把AI系统的记忆和社交认知当作推理任务来接近时,许多在人类认知和基于存储的范式中都不存在的 affordances(可供性) 就变得可用了。
“Affordances”(中文常译为可供性或功能可见性)是一个重要的设计心理学概念,最早由心理学家詹姆斯·吉布森(James J. Gibson)提出,后被唐纳德·诺曼(Donald Norman)等人引入交互设计领域。 |
LLM擅长快速、一致地得出明确的演绎、归纳和溯因结论。
它们可以在推理轨迹中展示工作过程,用前提支持每个结论,并用自然语言限定确定性的光谱范围。
这避免了陷入分配代表确定性程度的任意数字token的陷阱,而是利用模型的推理能力和它建立的支持每个结论的证据。
这对未来推理来说更鲁棒、更AI原生、更有用。
这产生了原子的、可组合的结论(关于个人身份的观察),可以动态地相互搭建,产生新的推理,并在推理时综合,为与AI系统或产品的任何互动设计最佳上下文。
无限可组合的预测!新信息被即时推理,从显式用户或代理数据中挖掘出所有潜在的洞察。而且LLM比人类进行有意识推理时错误少得多,它们处理矛盾和更新时没有神经惯性、认知偏见、情绪干扰或信念抗拒。
所以,我们可以实现没有人类局限性的基于预测的记忆。更重要的是,我们可以超越人类能力。
这种逻辑推理之树远超静态存储。
它可以从任何地方进入和遍历,以搭建推理并回答任何查询,这是其他方法都不具备的能力。它可以被异步计算或即时计算,以改进表征。
这棵树构成了关于用户或代理身份的一组预测。它是个人身份的表征,一个仍然利用错误或惊讶来自我改进并从稀疏数据中最大化洞察的工作模型。
想象一下这个场景:用户和AI聊了一次,系统得出了十个关于用户偏好的结论。三个月后用户又来了,系统不需要翻找三个月前的聊天记录,而是直接加载那个\"身份模型\",基于这十个结论进行推理,瞬间就能理解用户当前的语境。
更妙的是,这十个结论可以和其他结论组合,生成新的洞察。
比如结论A说用户喜欢简洁,结论B说用户是程序员,系统可以推理出\"用户可能喜欢简洁的代码示例\"。这种组合爆炸的可能性,让静态存储方案看起来像原始人的结绳记事。
为什么Honcho是答案
语言模型开启了一个充满机遇的新时代。我们有机会处理非确定性的复杂问题,比如超人类的记忆和社交认知。在表格数据上进行推理已经效果很好,但它是拟物的,现在我们有能力用密集的自然语言推理来映射任何同伴(人类或AI)的个人身份及其附带的一切。
问题不是如何最好地存储你的数据以便以后预测,而是如何最好地对其进行推理,以获得最准确的身份拓扑表征来运行模拟。我们可以超越单纯的猜测和黑盒推理,用达到确定性和做出高保真、可追溯的预测来取代它。
在记忆的兔子洞里钻得够深,你要么放弃,要么得出结论:你需要为每个用户建模身份。我们建造Honcho就是为了让你不必做选择,你两个都不必做。
对你来说幸运的是,我们的唯一使命和重点就是解决这个问题。Honcho将记忆视为推理,通过简单的API将这种新颖方法带给你。
Honcho能让你从存储思维跃迁到预测思维的跳板。它不是一个更花哨的数据库,而是一个推理引擎,一个身份建模系统,一个合成社交认知的实现。
在这个新时代,存储是手段,推理才是目的。数据是原料,洞察才是产品。
Honcho帮你把原料加工成高价值的洞察,让你能真正理解每一个用户,预测他们的需求,提供真正个性化的体验。这不是渐进式的改进,这是范式的跃迁,是从\"记得用户说过什么\"到\"理解用户是谁\"的质变。
你正在浪费多少隐藏信息
让我们直面一个残酷的事实:你现在的系统正在浪费海量信息!每次用户互动都蕴含着丰富的身份线索,但存储思维只能抓住表面的事实,把深层的模式、隐含的特征、潜在的需求全部当成噪音过滤掉了。这就像是用漏斗去接瀑布,接住的只是几滴水,却以为掌握了整个瀑布的秘密。Honcho要改变这一切,它要把每一滴水都拿来分析,找出水流的方向、速度、力量,构建出瀑布的完整模型。
当你开始用推理的视角看待记忆,你会发现世界完全变了样。用户不是一条条记录,而是一个个活的模型。互动不是数据的堆砌,而是模型的更新。预测不是猜测,而是基于证据的推理。这种转变带来的不仅是效率的提升,更是能力的跃迁。你可以做到以前想都不敢想的事情:真正理解用户的意图,预测用户未来的行为,在用户开口之前就准备好答案。这不是科幻,这是Honcho正在实现的现实。