这一版主打三件事:让自动化对话更听话、让记忆系统更懂人、让底层基础设施更稳。五个板块一共塞了二十多项改进,从消息流转到安全扫描,从模型接入到网关修复,覆盖面很广。
群聊更顺畅了:消息与自动化
以前自动化跑起来像脱缰野马,现在加了方向盘。
默认开启 active-run 引导,意思是自动化流程在执行过程中可以实时被干预和调整,不会一条路走到黑。同时加入了 visible-reply 强制机制,确保机器人的回复对用户是可见的,不会再出现那种"后台默默操作、用户一脸懵"的情况。
子智能体(subagent)的路由元数据也得到了支持,父任务派生出来的子任务现在能带上完整的上下文血缘信息,方便追踪和排错。
还有一个贴心设计:心跳提醒的后续跟进承诺。系统会主动询问用户是否需要对之前的提醒做进一步操作,而不是发完就完事。这个默认是 opt-in,需要用户主动开启。
这一块更新特别关键,因为它直接决定AI到底是工具还是助手:
现在的机制叫 active-run steering,说人话就是:任务跑着跑着可以随时被调整方向。以前流程像坐地铁,一站一站固定走,现在像打车,你可以中途说“师傅改去火锅店”。
同时还有一个狠点的东西叫 visible-reply enforcement:翻译一下:系统强制保证“你能看到AI回了什么”。以前很多自动化流程会悄悄执行,你根本不知道发生了啥,现在它必须“露脸”。这就像员工必须汇报工作,而不是偷偷把事做完又不吭声。
还有一个特别有意思:subagent routing metadata:简单说就是:AI会分小弟干活,而且会标记“这个活是谁干的”。这就像你公司开始有分工了,不再是一个人啥都干,而是有人写代码,有人测试,有人盯流程。
最后一个是 follow-up commitments:这东西就很像人类的“我等会儿提醒你”。系统会在后台记住:这事还没完,到点了它会来敲你。
这四个东西叠在一起,就形成一个结果:AI从被动执行变成主动推进。
你再偷懒,它都能把你叫回来干活。
记忆系统直接从笔记本升级成“人情世故数据库”
记忆模块这次升级的方向很明确:从单纯的存储仓库变成懂人际关系的活百科。
新增了 people-aware 能力,系统能识别和关联与特定人物相关的记忆内容。provenance view 让你可以查看某条记忆是从哪里来的、怎么生成的,解决了"这机器人怎么知道这事"的疑惑。
每段对话现在支持 Active Memory 过滤器,用户能按需求筛选当前对话中激活的记忆片段,避免无关信息干扰。超时场景下支持 partial recall,不会因为一次网络卡顿就把整段记忆加载搞砸。
REM 预览诊断也加了边界限制,防止诊断信息本身占用过多资源。
以前的memory像记事本,记点碎片。现在直接升级成“人+事+来源”的组合,它变成一个 people-aware wiki。
什么意思?系统开始区分“谁说的”“跟谁有关”“这段话是从哪来的”。
这就很像你脑子里开始有标签:
- 这个需求是老板说的
- 这个想法是同事提的
- 这个坑是你自己挖的
还有一个功能叫 provenance views:简单说:你能看到“这条记忆从哪来的”。这在工程里特别重要,因为很多bug都是“谁改了这行代码没人知道”。
再加一个狠点的:Active Memory filters:意思是:每个对话可以只加载“相关记忆”。就像你聊天时不会把小学同学的事搬出来讲一样,系统也开始有选择地记忆。
还有一个挺真实的功能:partial recall on timeout:就算AI卡住了,它也会尽量记住一部分,而不是全忘。这很像你考试写到一半忘了,但还能写点关键词。
最后一个 REM preview diagnostics:这名字听着很玄,其实就是“记忆预览+检测”。系统会告诉你:它准备记什么,这些东西有没有问题。
这一整套组合起来,结论很明确:龙虾开始有“记人”和“记事”的能力。
这意味着什么?意味着以后你忽悠它会越来越难。
模型接入直接开闸放水
这一块更新的重点就是三个字:更多、更快、更稳。先说 NVIDIA onboarding。这意味着更多算力和模型资源接进来了。你可以理解为以前你家只有一个电源插口,现在多了好几个,还支持快充。以前你可能只能用一两种模型,现在NVIDIA那边的模型库直接对接进来,选择面一下子宽了很多。
然后是 manifest-backed model/auth paths。简单说就是模型加载更快,认证流程更顺。以前像排队进地铁,现在像刷脸进站。你不需要每次都用繁琐的方式验证身份,系统自动把认证流程优化了,点一下就能用。这对于经常换模型的人来说简直是救命,不用每次都要重新折腾一遍API密钥那些麻烦事。
还有一个重点 Bedrock Opus 4.7 thinking parity。这句话翻译一下就是不同模型之间的思考能力差距被拉平了。你不需要纠结选哪个模型,效果更接近了。以前你可能非得用某个贵得要死的模型才能得到好结果,现在中等价位的模型也能干差不多的事。再加上 Codex/OpenAI compatible replay 和 streaming,说人话就是以前你跑AI像看录像,现在像看直播,还能回放不卡顿。你跑一个长任务的时候,结果是一点点流式回来的,不用干等着最后一下子全蹦出来。这一整块更新的结果很简单:模型使用门槛下降,切换成本降低,体验更丝滑。你再也不用因为模型问题卡半天。
网关和插件终于开始抗压了
这一部分解决的是一个很现实的问题:系统老是崩。更新重点全是围绕别崩和崩了能救。比如 slow-host startup。翻译就是慢机器也能启动,不再卡死。以前你在一台配置不高的电脑上跑,启动就卡住半小时,现在它知道等一等,不会一上来就报错退出。
再比如 reusable model catalogs。意思是模型配置可以复用,不用每次重新折腾。你做好的模型设置可以存成一个模板,下次直接套用。这就像你存了一个滤镜,以后每张照片都能一键套上去,不用重新调参数。还有 event-loop readiness diagnostics,听着很专业,其实就是系统会提前检查能不能正常运行。就像飞机起飞前检查发动机,它在你真正开始用之前就把潜在问题扫描一遍告诉你哪可能出岔子。
还有 runtime-dependency repair。这东西很关键,依赖坏了它会自己修。以前是你手动修,现在它自己补。比如某个库版本不对或者缺失,它会尝试自动下载正确的版本,实在不行才找你帮忙。再加一个 stale-session recovery,翻译一下就是会话卡住了,它能自己恢复。这就像电脑死机自动重启。你在跑一个任务中途网络断了或者进程卡死,它能检测到然后自动重连恢复状态,不用你从头开始跑。最后一个 version-scoped update caches,说白了就是不同版本各玩各的缓存,不会互相污染。你升级系统之后老版本的缓存不会跑出来捣乱,新版本用新的缓存空间。这一整块的核心结论:系统稳定性大幅提升,崩溃不再是常态。你不用天天祈祷它别挂。
各种聊天渠道终于不再抽风
这一块更新说白了就是修bug,但修得很关键。Slack Block Kit 限制问题被处理了。以前你在Slack里发复杂格式的消息,各种按钮和区块动不动就不显示或者点不了,现在这块理顺了。Telegram 的代理、webhook、轮询、发送稳定性都增强了。Telegram用户应该最清楚,以前发消息经常卡住或者丢包,现在连续发几十条也不会有问题。
Discord 的启动和限流也更稳了。Discord服务器人多的时候经常触发限流,bot就罢工了,现在它知道怎么优雅地排队等恢复而不是直接崩溃。WhatsApp 的消息送达和在线状态更靠谱。以前WhatsApp经常你发了消息显示已送达但对面根本没收到,或者在线状态错乱,这版修复了很多底层通信逻辑。Microsoft Teams、Matrix、Feishu这些边缘问题也处理了一堆。Teams的消息格式兼容性、Matrix的同步延迟、飞书的回调超时都得到了针对性处理。
这意味着什么?你用AI接各种平台,不会动不动就断线、丢消息、发不出去。以前是你觉得AI很聪明但经常掉线。现在是AI不仅聪明还能稳定打工。你可以在Slack上跟AI聊一半,转到Telegram继续,中间不会丢失上下文也不会断连。这感觉就像你的AI同时开了好几个聊天窗口,每一个都稳定在线。
安全和运维开始走严肃路线
这一块更新看起来不起眼,但其实是保命模块。先说 OpenGrep scanning。就是代码扫描,帮你找潜在风险。类似安检机器,看你包里有没有危险物。每次提交代码或者加载插件的时候,它会自动扫一遍看有没有安全漏洞、硬编码密钥或者危险函数调用。
然后是 GHSA triage policy。翻译一下就是漏洞处理流程更清晰了。发现问题能快速分类、处理。GitHub安全公告那边报了一个漏洞,系统能自动判断严重程度是高还是低,然后按优先级处理。再加上 exec/pairing/owner-scope handling,说人话就是权限管理更严了,不是谁都能乱操作。你想执行一条高危命令,必须经过配对验证或者所有者授权,不能随便一个插件就能改系统设置。
还有 Docker/onboarding automation。意思是部署更简单,新人上手更快。你第一次装OpenClaw的时候,Docker镜像拉下来,初始化脚本自动跑,该配的东西都配好,你不用读几十页文档才能跑起来。最后一个 IPv6 ULA opt-in,这个比较技术但核心意思是网络访问更安全,特别是在代理环境下。如果你想用IPv6的私有地址段,需要主动开启而不是默认就暴露出去,减少了被扫描和攻击的风险。这一整块总结一句话:系统开始认真对待安全和长期运行。不再只是能跑,而是能放心跑。
总结
2026.4.29 这版没有搞大重构,而是在现有架构上做了大量细节打磨。消息控制更精细、记忆更智能、模型接入更顺畅、网关更抗造、渠道更稳、安全更严。属于那种"用起来没感觉,但少了它一定会出问题"的扎实更新。
这一版让代理更智能、更具感知力、更可靠。
- 更好的消息传递。
- 更强的记忆。
- 更多提供商。
- 更严格的安全性。
以下是真正重要的内容 ↓
1. 消息传递和自动化变得更智能
• 主动运行引导现为默认设置
• 强制可见回复
• 更好的子代理路由
• 可选的后续承诺
代理现在更一致、更容易信任。
2. 记忆 Wiki 现在具备人员感知能力
这是一个重大进步。
• 人物卡片和关系图谱
• 来源和隐私报告
• 证据深入分析
• 更智能的搜索模式
主动记忆还新增:
• 按聊天过滤
• 超时时的部分召回
• 更好的诊断工具
代理现在能更好地理解他们与之打交道的人。
3. 新的 NVIDIA 提供商
• 完整入驻支持
• 静态模型目录
• 更好的模型选择
此外,还改进了 Bedrock Opus,并加强了 Codex/OpenAI 的安全处理。
4. 更快、更可靠的核心系统
• 更快的启动速度
• 更好的依赖修复
• 会话恢复
• 更简洁的更新处理
一切都感觉更稳定了。
5. 渠道和安全升级
修复涵盖:
• Slack
• Telegram
• Discord
• WhatsApp
• Teams
• Matrix
• Feishu
此外:
• 新的安全扫描
• 更安全的执行和配对
• 更好的入驻保护
重要提示
工具权限现在更严格。
如果您在受限配置文件中依赖 exec 或 fs,则需要明确允许它们。
如何更新
openclaw update openclaw –version
npm install -g openclaw@latest
Docker:拉取最新镜像并重启
这一版推动 OpenClaw 向更深入理解上下文、人员和工作流程的代理迈进。