传统智能体失忆原因是“状态放错了地方”这件小事


只要长期状态仍然依赖上下文,任何智能体在长程任务中都会系统性失稳,而文件化状态是一条可行出路。InfiAgent通过文件中心化状态管理,解决AI智能体长时程任务中的上下文膨胀与错误累积问题,使小模型也能稳定完成80篇文献综述等复杂任务。

一场颠覆AI智能体设计的革命
你让一个AI助手帮你写一篇关于“量子计算在生物医药中的应用”的综述。它开始搜索、读论文、做笔记、写摘要……每一步的操作记录、工具返回结果、中间结论,全都被塞进同一个“对话窗口”里。随着任务推进,这个窗口越来越长,很快逼近模型能处理的最大长度。

于是系统被迫“压缩记忆”——要么删掉早期内容,要么用一句话概括几十步操作。

问题来了:一旦关键信息被误删,或者摘要失真,后续所有推理都会建立在错误基础上,错误像雪球一样越滚越大。

更可怕的是,很多智能体其实根本没有真正“记住”任务状态,只是靠上下文里的文字“假装记得”,学术界称之为“状态幻觉”(illusion of state)。在这种幻觉下,智能体看似在思考,实则早已迷失方向。

在2026年初,来自香港理工大学和香港大学的一群研究者,用一篇名为《InfiAgent:面向通用自主智能体的无限时域框架》的论文,彻底撕开了这层遮羞布,并给出了一套让人拍案叫绝的解决方案。他们的核心思想简单到令人发指:别再让大模型自己记事了,给它配个“外挂硬盘”!

作者是谁?不是硅谷巨头,而是亚洲高校的实干派

这篇论文的作者团队由余成龙(Chenglin Yu)、王雨辰(Yuchen Wang)、王松淼(Songmiao Wang)、杨红霞(Hongxia Yang)以及通讯作者李明(Ming Li)组成,分别来自香港大学与香港理工大学。他们没有依托谷歌、OpenAI或Anthropic这些明星实验室,却在AI智能体最棘手的“长时程稳定性”问题上,做出了极具工程洞察力的突破。

尤其值得注意的是,他们并没有依赖千亿参数的闭源大模型,而是用一个仅200亿参数的开源模型,就干翻了多个商业巨头的 proprietary 系统。这种“以小博大”的能力,恰恰证明了架构设计比模型规模更重要——这正是当前AI界最被忽视的真理。

一切问题的起点:为什么智能体越跑越不像“在工作”

这篇论文讨论的并不是模型是否聪明,而是一个更容易被忽视的问题:智能体在长时间执行任务时,究竟是如何“知道自己在干什么”的。很多人直觉上会认为,只要模型看过历史对话、记得之前的操作,它自然就能持续推进任务。但论文用一整套长程实验反复证明,这种直觉是错的,而且错得非常根本。

当任务被拉长到需要反复阅读资料、不断生成中间结果、持续判断进度时,智能体会逐渐出现一种诡异的退化现象。它并不是马上失败,而是慢慢变得空洞、重复、敷衍,最后甚至会提前结束任务,仿佛自己已经完成了一切。这不是模型“偷懒”,而是系统已经失去了对自身状态的感知能力。



启发性原理一:上下文并不等于状态

论文揭示的第一个核心原理是,上下文从来都不是真正意义上的状态。上下文只是模型当前可见的一段文本,它没有持久性保证,也没有结构约束。只要上下文需要被压缩、裁剪或重写,某些关键信息就会在没有任何提示的情况下消失。

更致命的是,模型本身并不知道哪些信息消失了。对模型来说,上下文里“没有出现”,和“从来不存在”是同一回事。于是,系统会在不自知的情况下,继续基于残缺状态做决策,这也是长程任务中错误会不断累积、而且无法自我纠正的根本原因。



启发性原理二:长程失败不是能力问题,而是结构问题

一个非常重要的启发在于,这类失败与模型规模、参数数量、甚至推理能力关系都不大。论文对比了不同强度的模型,发现只要状态仍然被塞进上下文,哪怕模型再强,也会在长程执行中表现出高度不稳定。

这意味着,问题并不在“模型不够好”,而在于“系统设计让模型承担了它不该承担的职责”。让语言模型既负责推理,又负责长期记忆,本身就是一种结构性过载。长程任务只不过是把这个问题放大到无法忽视。



启发性原理三:真正可靠的状态,必须脱离生成概率

论文反复强调,长期状态如果仍然依赖概率生成系统,就永远不可能稳定。只要状态存在于生成文本中,它就会受到噪声、干扰和压缩策略的影响。真正可靠的状态,必须以一种非生成、可验证、可检查的形式存在。

这正是文件化状态设计的核心动机。文件是否存在、内容是否写入成功,是确定性的事实,而不是模型“记不记得”的问题。一旦状态脱离生成概率,长程执行的稳定性才有可能建立起来。



启发性原理四:智能体需要“世界”,而不是“记忆”

从更高层看,这篇论文实际上在提出一个近似哲学的问题:智能体是否拥有一个独立于自身思考之外的“世界”。传统智能体几乎把全部世界都压缩进了提示词里,结果就是世界会随着上下文一起消失。

文件化状态的意义在于,它为智能体提供了一个外部世界。

智能体不再通过回忆来判断现实,而是通过查看外部状态来确认进度。这种转变,使得智能体第一次具备了类似“行动留下痕迹”的能力,而不是每一步都像在重新开始。



InfiAgent的角色:不是魔法,而是边界划分

在这套原理之上,InfiAgent只是一个相对克制的实现。它并没有试图让模型更聪明,而是明确划清边界:模型负责短期推理和决策,长期状态全部交给外部系统保存。模型每一步只读取当前状态快照和有限的近期行为,而不是背负完整历史。

这种设计看似保守,却极大降低了认知负担,也让系统行为在长时间运行中保持一致性。InfiAgent的意义,不在于它多复杂,而在于它第一次系统性地承认:语言模型不适合承担长期记忆这一角色。



启发性原理五:长上下文不是解药,只是止痛片

论文中特别指出,单纯扩大上下文长度,并不能解决根本问题。更长的上下文,只是让失败来得更晚一些。当状态依然混在上下文里时,它依然会被噪声淹没、被压缩策略牺牲。

真正的转折点,不是上下文有多长,而是状态是否被明确外置。一旦状态被当作一等公民独立存在,长程执行才不再依赖模型的“记性”,而是依赖系统的结构。



结语:真正的启发不在任务,而在原理

这篇论文最重要的启发:只要长期状态仍然寄生在上下文里,智能体就无法真正具备长期自主能力。

InfiAgent只是一个起点,但它背后的原理已经非常清晰。未来真正可靠的智能体,不是记得更多,而是永远知道自己现在站在哪里,站在哪个上下文里!。