OpenClaw 2026.4.11版本正式发布,核心聚焦稳定性优化与跨平台兼容性改进。本次更新覆盖provider传输安全、子代理执行可靠性以及Slack、WhatsApp、Telegram、Matrix四大即时通讯平台的缺陷修复。
OpenClaw 2026.4.11版本发布后,我第一反应是这版本看起来好无聊。没有全新模型,没有炸裂功能,全是修修补补。但仔细看下去才发现,这恰恰是最值钱的更新。因为上一版的OpenClaw像一个刚学会开车的 teenager,一脚油门能冲出去,但随时可能撞墙。这一版做的所有事情,就是把方向盘、刹车、安全带全部装上。工程师团队终于意识到,龙虾不能一直玩漂移,必须走直线。
这次更新的核心目标只有一句话:把“会跑的Agent”升级成“敢上线的Agent”。所有改动都围绕稳定性、安全性、可控性这三个词展开。没有花活,全是工程层面的硬骨头。
稳定性优化的真实意义:龙虾开始学会走直线而不是到处乱窜
Provider传输与路由层的安全性加固,听起来像天书,其实特别好理解。你可以把Provider想象成龙虾的快递员。以前这个快递员送包裹,喜欢抄近道走小巷子,结果经常被狗追或者掉沟里。这次更新强制快递员走主干道,而且每到一个路口都要检查包裹有没有被掉包。这样做的结果是异常中断概率大幅下降。用户感知不到这种改动,但对线上系统来说,这是救命级别的优化。
子代理执行流程引入更严格的审批机制,这是另一个关键改动。多Agent协作时,主Agent会派出多个子Agent去干活。以前这些子Agent就像一群没有家长管的小孩,各自做事,最后互相踩脚。现在每个子Agent干任何事之前,都要回来问一声“我可以这样做吗”。任务分发链路和回传链路都加了双保险。这意味着龙虾不会再出现“自己调用自己导致死循环”这种蠢事。浏览器端和移动端界面同步做了清理,交互体验更一致。说白了,这一版更新就是让龙虾从“野路子”变成“正规军”。
多平台即时通讯修复:龙虾正式进入人类的社交战场
Slack、WhatsApp、Telegram、Matrix这四大平台获得集中修复,这件事的重要性被严重低估。很多人以为发消息很简单,但跨平台消息同步的坑比想象中多得多。消息同步延迟会导致龙虾在一个平台上说“我收到了”,另一个平台上还在转圈。会话状态异常更恶心,龙虾以为自己在跟同一个人聊天,实际上对方已经换了好几个话题。媒体文件传输失败则是高频翻车现场,用户发一张图,龙虾说“我看不到”。
这次更新把这三大高频问题全部解决。各平台适配层统一了错误处理逻辑,这意味着工程师不用再为每个平台单独写一堆if else。比如WhatsApp报错的方式和Slack完全不一样,以前要分别处理,现在统一映射成内部错误码。维护成本大幅降低。更关键的是,龙虾开始理解人类的社交信号。比如reaction、typing状态、thread上下文,这些在人类看来理所当然的东西,对龙虾来说全是需要学习的新知识。这次更新后,龙虾在Slack里发消息,至少不会把回复发到错误的线程里。
Dreaming与Memory Wiki升级:龙虾从靠记忆力变成靠档案库
新增ChatGPT对话导入功能,这件事的杀伤力非常大。你可以把之前在ChatGPT里的所有聊天记录,一键注入到Memory Wiki知识库。这意味着龙虾不再是一个失忆症患者。
以前你跟龙虾聊过什么,它转头就忘。现在它可以把那些对话存起来,变成可检索的知识。
Imported Insights和Memory Palace两个子标签页,分别对应原始对话和编译后的Wiki页面。你可以直接看到导入的原始聊天记录,也能看到龙虾整理后的知识结构。
这一步解决的是龙虾的认知方式问题。以前的龙虾更像靠短期记忆聊天,聊三句就忘了第一句。现在龙虾开始接近“有档案、有资料、有知识库”的状态。
Memory Palace这个命名很有意思,它借用的是记忆宫殿的记忆方法。龙虾会把重要的信息放在一个个虚拟的“房间”里,需要的时候直接去房间取。不再需要每次都重新推理。这意味着龙虾的决策从“猜”变成“查证”。
这是从玩具走向工具的关键一步。
Control UI与WebChat交互升级:龙虾说话终于像个人了
助手返回的媒体内容、回复指令与语音指令,现在以结构化聊天气泡形式渲染。以前这些东西混在一起输出,用户分不清哪句是龙虾说的,哪句是龙虾执行的指令。现在每个类型的内容都有自己的气泡样式。你一眼就能看出来,这个气泡是文字回复,那个气泡是语音指令。这种设计在移动端尤其重要,因为屏幕小,信息一混就乱。
新增embed标签支持富媒体输出,这是一个需要谨慎对待的功能。外部嵌入URL必须通过配置项显式开启,默认是关闭的。为什么要这么麻烦?因为如果你允许任意外部URL嵌入,坏人就可以塞一个钓鱼链接进去。OpenClaw团队在加功能的同时没有忘记安全底线。
这个细节说明他们对生产环境的理解已经很深了。不像一些开源项目,只管加功能不管收尾。
视频生成工具增强:从生成文件变成交付资产
视频生成接口支持纯URL交付生成资源,这个改动的背后是一个被很多人忽略的性能问题。以前生成视频,系统会把整个视频文件塞进内存再返回。如果生成一个4K视频,几百兆甚至几个G的文件直接撑爆内存。服务器瞬间卡死。现在改成URL交付,生成完直接把视频上传到对象存储,然后返回一个链接。用户点链接就能看。系统内存占用从几个G降到几十K。
新增typed providerOptions参数、参考音频输入、单资源角色提示、自适应宽高比支持,这些都是在丰富视频生成的表达力。比如参考音频输入,你可以给龙虾一段你喜欢的背景音乐,龙虾生成视频时会参考这段音乐的节奏和情绪。自适应宽高比更实用,你不需要手动计算16:9还是9:16,龙虾根据你的输出平台自动调整。图片输入上限也提升了,以前一次只能传五张参考图,现在可以传更多。视频provider能够暴露更丰富的生成模式,这意味着开发者可以精细控制生成过程的每一步。
飞书文档评论优化:龙虾开始理解办公室政治
文档评论会话的上下文解析能力增强,这个功能听起来不起眼,但在企业场景下极其重要。想象一下,一个文档下面有五十条评论,龙虾需要知道哪条评论是在回复哪条评论。以前龙虾经常搞错,把A的回复安到B的头上去。现在评论表情反应和输入状态反馈也加进来了。你在飞书文档里给一条评论点个赞,龙虾能看到。你在输入框里打字,龙虾能看到“对方正在输入”的状态。
文档线程内的对话行为更接近标准即时通讯会话。这意味着龙虾在文档评论区的行为和它在Slack里的行为是一致的。不需要重新学习一套交互规则。协作流畅度大幅提升。这种改动对于程序员来说可能觉得没什么,但对于每天在飞书文档里改方案的产品经理和运营来说,体验提升是质的飞跃。因为龙虾不再是一个智障机器人,而是一个懂办公室协作的助理。
Microsoft Teams功能补全:龙虾终于能融入大厂工作流
新增消息反应支持、反应列表查询、Graph API分页机制。这三件事放在一起看,说明OpenClaw在认真对待Teams这个企业级平台。消息反应支持意味着龙虾可以在Teams里给人点赞或者点踩。反应列表查询让龙虾可以统计“有多少人给这条消息点了赞”。Graph API分页机制解决的是数据量大的问题,如果某个频道有一万条消息,龙虾不需要一次全拉下来,可以一页一页翻。
Delegated OAuth配置流程完善,这是一个安全相关的关键更新。发送反应操作可以在委托授权下完成,意思是普通用户在授权后就可以让龙虾代他发反应。同时保留应用授权的只读路径以确保兼容性。这样做的好处是既保证了灵活性,又不会破坏已有的集成方案。企业级软件最怕的就是“升级即破坏”。OpenClaw团队显然深谙此道,没有为了推新功能而砍旧功能。
插件系统改进:从写死逻辑变成插拔式扩展
插件manifest现可声明activation与setup描述符,这个改动的技术含量很高,但用能听懂的话说就是:以前接一个插件,工程师要改核心代码。现在接一个插件,插件自己告诉系统“我需要什么认证、什么配置、什么步骤”。安装流程能够描述所需的认证、配对与配置步骤,无需在核心代码中硬编码特殊处理逻辑。
这意味着什么?意味着插件的接入成本从“几天”降到“几分钟”。比如你要接一个钉钉插件,以前你需要在OpenClaw的核心代码里写一堆钉钉专用的逻辑。现在你只需要在插件的manifest文件里写清楚“我需要OAuth认证,需要读取消息权限,需要发送消息权限”。系统自动完成剩下的工作。这种声明式扩展方式,是插件生态能够规模化的前提。否则每接一个插件都要改核心代码,系统迟早变成一团意大利面条。
Ollama性能优化:龙虾模型切换不再卡成PPT
模型发现阶段缓存/api/show返回的上下文窗口与能力元数据,这个改动解决的是本地模型反复查询的性能浪费。你打开Ollama的模型选择器,里面有十几个模型。以前每次刷新选择器,系统都会重新请求每个模型的元数据。如果模型有十几个,每个请求耗时几百毫秒,总耗时就是好几秒。用户感觉就像PPT翻页。
现在系统会把这些元数据缓存起来,重复刷新选择器时不再重新获取未变更的模型。只有当你真的换了一个新模型,或者模型的digest发生变化时,才会重新获取。空响应后自动重试是另一个贴心功能。有时候模型响应超时返回空内容,以前系统就傻在那里。现在会自动重试一次。digest变更时自动失效缓存,确保你不会用到过期的模型信息。这套组合拳打下来,模型选择器的响应速度至少提升五倍。
调试与质量保障升级:龙虾系统终于有了考试制度
嵌入式代理调试日志现展示OpenAI兼容端点的分类方式。以前你看到一个API请求失败,你很难判断这个请求是去了本地模型、代理服务器还是远程API。现在调试日志会明确告诉你请求的分类。本地和代理路由问题的诊断变得非常直观。对于维护者来说,这意味着排查问题的效率从“大海捞针”变成“按图索骥”。
新增GPT-5.4与Opus 4.6代理能力对比报告门禁,这是一个非常成熟的工程实践。包含共享场景覆盖检查、严格证据启发式规则与跳过场景统计。
用大白话说,就是给龙虾建立了一套统一考试标准。每次代码改动后,系统会自动跑一遍这套考试。考过了才能合并代码。这样做的好处是,你不会因为修了一个bug而搞坏另一个功能。共享场景覆盖检查确保不同模型在相同场景下表现一致。严格证据启发式规则避免主观判断。跳过场景统计告诉你哪些场景没测到,方便后续补充。这套机制对于维护者来说是定心丸,对于用户来说是质量保证。
总结:
OpenClaw 2026.4.11聚焦稳定性,加固provider传输、优化子代理执行、修复四大即时通讯平台缺陷,并扩展Dreaming记忆系统、视频生成与插件配置能力。
这种版本最无聊,但也最值钱。因为真正赚钱的系统,从来不是最聪明的,而是最不会出事的。
如果您有一段时间没有更新,请不要忘记运行:
openclaw doctor --repair
这会让您的龙虾保持良好和快乐的状态,并避免任何问题。
网友反应
这次更新让龙虾在实际使用中更好用了。
你的智能体现在可以在网页上直接做出你能用的东西,不只是嘴上说说,比如能玩的迷你小游戏。举个例子:你跟它说“给我做个小塔防游戏,我要能直接在页面上玩”,它就能真做出来。
生成视频也更省心了,不需要你跟工具较劲,输入更灵活、输出更干净。比如:“用这张图、这段配音,生成一条 9:16 的 10 秒产品预告视频”。
你可以把旧版 ChatGPT 的历史聊天记录导入 OpenClaw,这些内容就会变成真正有用的记忆,而不是死掉的导出文件。比如:导入旧聊天记录后,OpenClaw 能记住你的偏好、项目和之前做的决定。
你也不用花太多时间琢磨插件怎么配置了,因为插件现在可以自己告诉你它需要什么。比如:插件直接说需要什么授权、配对或配置,而不是先甩你一脸文档让你自己看。
聊天集成功能也更完整了,特别是在 Teams 和飞书里,真实工作流程更好用了。比如:在 Teams 里回复消息,或者在飞书文档的评论讨论里直接操作。
GPT-5.4 和 Codex 的运行结果也更值得信赖了,因为现在用的是更严格的“质量门禁”来检查,而不是靠感觉。比如:不会再出现那种“我给你讲一下我的计划”然后就没下文的情况了。
️ 日常使用也更稳了,修复了 Codex 授权、转录、网页聊天的音频/工具配对、WhatsApp 消息路由、超时和异常兜底等问题。比如:登录失败少了、任务卡住少了、消息发错地方也少了。
预报
OpenClaw 接下来要做两个实验,解决“GPT 变懒”这类问题:
1)严格模式:
设置 agents.defaults.embeddedPi.executionContract = "strict-agentic"
意思就是告诉 GPT-5.x 系列模型:别偷懒,继续干活——多读代码、调用工具、做修改,要是真干不了就明确说出卡在哪,而不是糊弄过去。
https://docs.openclaw.ai/providers/openai
Agent过度积极?这个技能把卡帕西经验变成了行为紧箍咒