OpenClaw v2026.4.29:群聊现在感觉好多了、记忆系统再进化


这一版主打三件事:让自动化对话更听话、让记忆系统更懂人、让底层基础设施更稳。五个板块一共塞了二十多项改进,从消息流转到安全扫描,从模型接入到网关修复,覆盖面很广。


群聊更顺畅了:消息与自动化

以前自动化跑起来像脱缰野马,现在加了方向盘。

默认开启 active-run 引导,意思是自动化流程在执行过程中可以实时被干预和调整,不会一条路走到黑。同时加入了 visible-reply 强制机制,确保机器人的回复对用户是可见的,不会再出现那种"后台默默操作、用户一脸懵"的情况。

子智能体(subagent)的路由元数据也得到了支持,父任务派生出来的子任务现在能带上完整的上下文血缘信息,方便追踪和排错。

还有一个贴心设计:心跳提醒的后续跟进承诺。系统会主动询问用户是否需要对之前的提醒做进一步操作,而不是发完就完事。这个默认是 opt-in,需要用户主动开启。

这一块更新特别关键,因为它直接决定AI到底是工具还是助手:
现在的机制叫 active-run steering,说人话就是:任务跑着跑着可以随时被调整方向。以前流程像坐地铁,一站一站固定走,现在像打车,你可以中途说“师傅改去火锅店”。

同时还有一个狠点的东西叫 visible-reply enforcement:翻译一下:系统强制保证“你能看到AI回了什么”。以前很多自动化流程会悄悄执行,你根本不知道发生了啥,现在它必须“露脸”。这就像员工必须汇报工作,而不是偷偷把事做完又不吭声。

还有一个特别有意思:subagent routing metadata:简单说就是:AI会分小弟干活,而且会标记“这个活是谁干的”。这就像你公司开始有分工了,不再是一个人啥都干,而是有人写代码,有人测试,有人盯流程。

最后一个是 follow-up commitments:这东西就很像人类的“我等会儿提醒你”。系统会在后台记住:这事还没完,到点了它会来敲你。

这四个东西叠在一起,就形成一个结果:AI从被动执行变成主动推进。

你再偷懒,它都能把你叫回来干活。



记忆系统直接从笔记本升级成“人情世故数据库”

记忆模块这次升级的方向很明确:从单纯的存储仓库变成懂人际关系的活百科。

新增了 people-aware 能力,系统能识别和关联与特定人物相关的记忆内容。provenance view 让你可以查看某条记忆是从哪里来的、怎么生成的,解决了"这机器人怎么知道这事"的疑惑。

每段对话现在支持 Active Memory 过滤器,用户能按需求筛选当前对话中激活的记忆片段,避免无关信息干扰。超时场景下支持 partial recall,不会因为一次网络卡顿就把整段记忆加载搞砸。

REM 预览诊断也加了边界限制,防止诊断信息本身占用过多资源。


以前的memory像记事本,记点碎片。现在直接升级成“人+事+来源”的组合,它变成一个 people-aware wiki。

什么意思?系统开始区分“谁说的”“跟谁有关”“这段话是从哪来的”。
这就很像你脑子里开始有标签:

  • 这个需求是老板说的
  • 这个想法是同事提的
  • 这个坑是你自己挖的

还有一个功能叫 provenance views:简单说:你能看到“这条记忆从哪来的”。这在工程里特别重要,因为很多bug都是“谁改了这行代码没人知道”。

再加一个狠点的:Active Memory filters:意思是:每个对话可以只加载“相关记忆”。就像你聊天时不会把小学同学的事搬出来讲一样,系统也开始有选择地记忆。

还有一个挺真实的功能:partial recall on timeout:就算AI卡住了,它也会尽量记住一部分,而不是全忘。这很像你考试写到一半忘了,但还能写点关键词。

最后一个 REM preview diagnostics:这名字听着很玄,其实就是“记忆预览+检测”。系统会告诉你:它准备记什么,这些东西有没有问题。

这一整套组合起来,结论很明确:龙虾开始有“记人”和“记事”的能力。

这意味着什么?意味着以后你忽悠它会越来越难。



模型接入直接开闸放水
这一块更新的重点就是三个字:更多、更快、更稳。先说 NVIDIA onboarding。这意味着更多算力和模型资源接进来了。你可以理解为以前你家只有一个电源插口,现在多了好几个,还支持快充。以前你可能只能用一两种模型,现在NVIDIA那边的模型库直接对接进来,选择面一下子宽了很多。

然后是 manifest-backed model/auth paths。简单说就是模型加载更快,认证流程更顺。以前像排队进地铁,现在像刷脸进站。你不需要每次都用繁琐的方式验证身份,系统自动把认证流程优化了,点一下就能用。这对于经常换模型的人来说简直是救命,不用每次都要重新折腾一遍API密钥那些麻烦事。

还有一个重点 Bedrock Opus 4.7 thinking parity。这句话翻译一下就是不同模型之间的思考能力差距被拉平了。你不需要纠结选哪个模型,效果更接近了。以前你可能非得用某个贵得要死的模型才能得到好结果,现在中等价位的模型也能干差不多的事。再加上 Codex/OpenAI compatible replay 和 streaming,说人话就是以前你跑AI像看录像,现在像看直播,还能回放不卡顿。你跑一个长任务的时候,结果是一点点流式回来的,不用干等着最后一下子全蹦出来。这一整块更新的结果很简单:模型使用门槛下降,切换成本降低,体验更丝滑。你再也不用因为模型问题卡半天。



网关和插件终于开始抗压了
这一部分解决的是一个很现实的问题:系统老是崩。更新重点全是围绕别崩和崩了能救。比如 slow-host startup。翻译就是慢机器也能启动,不再卡死。以前你在一台配置不高的电脑上跑,启动就卡住半小时,现在它知道等一等,不会一上来就报错退出。

再比如 reusable model catalogs。意思是模型配置可以复用,不用每次重新折腾。你做好的模型设置可以存成一个模板,下次直接套用。这就像你存了一个滤镜,以后每张照片都能一键套上去,不用重新调参数。还有 event-loop readiness diagnostics,听着很专业,其实就是系统会提前检查能不能正常运行。就像飞机起飞前检查发动机,它在你真正开始用之前就把潜在问题扫描一遍告诉你哪可能出岔子。

还有 runtime-dependency repair。这东西很关键,依赖坏了它会自己修。以前是你手动修,现在它自己补。比如某个库版本不对或者缺失,它会尝试自动下载正确的版本,实在不行才找你帮忙。再加一个 stale-session recovery,翻译一下就是会话卡住了,它能自己恢复。这就像电脑死机自动重启。你在跑一个任务中途网络断了或者进程卡死,它能检测到然后自动重连恢复状态,不用你从头开始跑。最后一个 version-scoped update caches,说白了就是不同版本各玩各的缓存,不会互相污染。你升级系统之后老版本的缓存不会跑出来捣乱,新版本用新的缓存空间。这一整块的核心结论:系统稳定性大幅提升,崩溃不再是常态。你不用天天祈祷它别挂。



各种聊天渠道终于不再抽风
这一块更新说白了就是修bug,但修得很关键。Slack Block Kit 限制问题被处理了。以前你在Slack里发复杂格式的消息,各种按钮和区块动不动就不显示或者点不了,现在这块理顺了。Telegram 的代理、webhook、轮询、发送稳定性都增强了。Telegram用户应该最清楚,以前发消息经常卡住或者丢包,现在连续发几十条也不会有问题。

Discord 的启动和限流也更稳了。Discord服务器人多的时候经常触发限流,bot就罢工了,现在它知道怎么优雅地排队等恢复而不是直接崩溃。WhatsApp 的消息送达和在线状态更靠谱。以前WhatsApp经常你发了消息显示已送达但对面根本没收到,或者在线状态错乱,这版修复了很多底层通信逻辑。Microsoft Teams、Matrix、Feishu这些边缘问题也处理了一堆。Teams的消息格式兼容性、Matrix的同步延迟、飞书的回调超时都得到了针对性处理。

这意味着什么?你用AI接各种平台,不会动不动就断线、丢消息、发不出去。以前是你觉得AI很聪明但经常掉线。现在是AI不仅聪明还能稳定打工。你可以在Slack上跟AI聊一半,转到Telegram继续,中间不会丢失上下文也不会断连。这感觉就像你的AI同时开了好几个聊天窗口,每一个都稳定在线。



安全和运维开始走严肃路线
这一块更新看起来不起眼,但其实是保命模块。先说 OpenGrep scanning。就是代码扫描,帮你找潜在风险。类似安检机器,看你包里有没有危险物。每次提交代码或者加载插件的时候,它会自动扫一遍看有没有安全漏洞、硬编码密钥或者危险函数调用。

然后是 GHSA triage policy。翻译一下就是漏洞处理流程更清晰了。发现问题能快速分类、处理。GitHub安全公告那边报了一个漏洞,系统能自动判断严重程度是高还是低,然后按优先级处理。再加上 exec/pairing/owner-scope handling,说人话就是权限管理更严了,不是谁都能乱操作。你想执行一条高危命令,必须经过配对验证或者所有者授权,不能随便一个插件就能改系统设置。

还有 Docker/onboarding automation。意思是部署更简单,新人上手更快。你第一次装OpenClaw的时候,Docker镜像拉下来,初始化脚本自动跑,该配的东西都配好,你不用读几十页文档才能跑起来。最后一个 IPv6 ULA opt-in,这个比较技术但核心意思是网络访问更安全,特别是在代理环境下。如果你想用IPv6的私有地址段,需要主动开启而不是默认就暴露出去,减少了被扫描和攻击的风险。这一整块总结一句话:系统开始认真对待安全和长期运行。不再只是能跑,而是能放心跑。



总结

2026.4.29 这版没有搞大重构,而是在现有架构上做了大量细节打磨。消息控制更精细、记忆更智能、模型接入更顺畅、网关更抗造、渠道更稳、安全更严。属于那种"用起来没感觉,但少了它一定会出问题"的扎实更新。

这一版让代理更智能、更具感知力、更可靠。

  • 更好的消息传递。
  • 更强的记忆。
  • 更多提供商。
  • 更严格的安全性。

以下是真正重要的内容 ↓

1. 消息传递和自动化变得更智能

• 主动运行引导现为默认设置
• 强制可见回复
• 更好的子代理路由
• 可选的后续承诺

代理现在更一致、更容易信任。

2. 记忆 Wiki 现在具备人员感知能力

这是一个重大进步。

• 人物卡片和关系图谱
• 来源和隐私报告
• 证据深入分析
• 更智能的搜索模式

主动记忆还新增:

• 按聊天过滤
• 超时时的部分召回
• 更好的诊断工具

代理现在能更好地理解他们与之打交道的人。

3. 新的 NVIDIA 提供商

• 完整入驻支持
• 静态模型目录
• 更好的模型选择

此外,还改进了 Bedrock Opus,并加强了 Codex/OpenAI 的安全处理。

4. 更快、更可靠的核心系统

• 更快的启动速度
• 更好的依赖修复
• 会话恢复
• 更简洁的更新处理

一切都感觉更稳定了。

5. 渠道和安全升级

修复涵盖:

• Slack
• Telegram
• Discord
• WhatsApp
• Teams
• Matrix
• Feishu

此外:

• 新的安全扫描
• 更安全的执行和配对
• 更好的入驻保护

重要提示

工具权限现在更严格。

如果您在受限配置文件中依赖 exec 或 fs,则需要明确允许它们。

如何更新

openclaw update openclaw –version
npm install -g openclaw@latest

Docker:拉取最新镜像并重启

这一版推动 OpenClaw 向更深入理解上下文、人员和工作流程的代理迈进。