OpenClaw v2026.3.7 实现双模型路由架构、ACP 持久化绑定、Slim Docker 多阶段构建、SecretRef 安全认证、可插拔上下文引擎、HEIF 图像支持及多渠道聊天优化,标志着从工具框架向智能体运行时的范式跃迁。
这次更新的核心思路特别清晰,就四个字:Agent 架构。
什么叫 Agent 架构?简单来说,就是让 AI 从一个只会回答问题的聊天机器人,进化成一个能自己思考、自己规划、自己执行任务的智能体。就像是从一个只会背课文的学渣,变成了能自己写论文的学霸。这次更新主要围绕四个层面展开:模型层、运行架构层、上下文系统层、部署安全层。
可插拔上下文引擎:让智能体拥有可替换的记忆系统
这是 v2026.3.7 版本最关键的架构升级之一。
OpenClaw 引入了 Pluggable Context Engine,也就是可插拔上下文引擎。简单来说,就是上下文管理模块可以像乐高积木一样自由替换。
OpenClaw 这次把最核心的“记忆管理”功能,第一次从死板的内部代码变成了可以随意更换的插件。
以前这东西是焊死在程序里的,谁也动不了;现在谁都能写个新插件来接管它。这属于底层架构的大改。
在智能体(AI)系统里,有个叫“上下文引擎”的核心模块,你可以把它理解成 AI 的“大脑记忆区”。它主要干三件事:
1. 把之前的聊天记录整理好。
2. 对话太多时,把旧内容压缩成摘要。
3. 决定把哪些内容塞进提示词里给 AI 看。
以前 OpenClaw 的做法是:这些规则全写死在核心代码里。
虽然你可以装各种插件(比如查天气、写代码),但这些插件碰不到 AI 的“记忆管理”部分。也就是说,你只能给 AI 装“手脚”(工具),但不能改它的“大脑结构”。
这就导致了一个问题:社区里的开发者没法在“记忆”这个核心功能上搞创新。
这次更新(v2026.3.7)搞了个大动作:开放了“记忆插件”的接口。
这意味着什么?以后谁都可以写个插件,来接管 AI 的整个记忆流程。从对话进来怎么存、怎么压缩、怎么拼装提示词,甚至子 AI 怎么继承记忆,全都能自定义。
这就好比以前 AI 的大脑是实心的、没法换;现在变成了模块化的,你可以把它的大脑换成硬盘、换成芯片,随便换。
第一个“黑科技”插件:无损记忆
这次更新不仅开了口子,还顺便带了个叫 lossless-claw 的插件作为示范。这个插件很牛,它的原理很简单:
对话内容永远不丢,只是“折叠”起来。
- 传统做法: 对话框满了 -> 把旧对话压缩成一段摘要 -> 扔掉原文。
- *后果:* 细节丢了,AI 就忘了。
- 新做法(Lossless): 压缩成摘要,但保留原文,并在摘要里做个“指针”(链接)。
- *好处:* AI 如果觉得摘要不够,可以顺着指针把原文“展开”读出来。
这就像你把旧文件打包成压缩包,但并没有删掉,需要用的时候还能解压看原文件。
这对 AI 来说非常重要,因为以前 AI 聊久了就会“老年痴呆”,把最开始的关键信息(比如你的特殊需求、一段关键代码)忘掉。
用了这个新机制,AI 就有了真正的长期记忆。
测试数据也证明了这点:
- 在长文本任务中,用了这个插件的 OpenClaw(74.8分)比传统的 Claude(70.3分)表现更好。
- 而且对话越长,优势越明显,因为它没把信息丢掉。
这次更新最大的意义在于:OpenClaw 从一个单一的 AI 工具,变成了一个可以自由组装的 AI 平台。
最关键的就是把“记忆”这个核心功能开放了。
因为对 AI 来说,工具决定了它能干啥活,而记忆决定了它有多聪明。现在这两样都开放给开发者折腾了,以后肯定会有更多厉害的“记忆算法”冒出来。
更重要的是,开发者可以自己编写 Context Engine 插件。
比如可以开发一个基于 Redis 的内存引擎,把智能体的短期记忆存储在 Redis 中实现快速读写;
可以开发一个基于 Weaviate 的向量引擎,利用向量数据库实现高效的语义搜索;
可以开发一个基于 Postgres 的 RAG 引擎,把企业知识库接入智能体系统。
这种可插拔的设计让 OpenClaw 具备了极强的扩展性,不同的应用场景可以选择不同的上下文管理策略,而不需要改动核心代码。
这一步让 OpenClaw 更像一个智能体操作系统。
什么是操作系统?
就是提供一个基础平台,上面可以运行各种应用,而这些应用可以共享底层的资源管理能力。
OpenClaw 现在提供的就是这样一个平台:它定义了标准的接口,任何人都可以按照接口规范开发自己的上下文引擎插件,然后插到系统里使用。这种架构设计体现了软件工程中的"开闭原则":对扩展开放,对修改封闭。核心系统保持稳定,功能通过插件扩展,这是成熟软件系统的标志。
GPT-5.4 与 Gemini 3.1 Flash-Lite 双模型智能体架构:大脑与神经反射的完美组合
这次 OpenClaw 最亮眼的更新,就是把两个完全不同定位的 AI 模型给组合到一块儿了。一个是 OpenAI 家的 GPT-5.4,另一个是 Google 家的 Gemini 3.1 Flash-Lite。这俩模型放在一起,社区里有位大神总结得特别到位,说这叫"大脑加神经反射"。
啥意思呢?就是说 GPT-5.4 负责深度思考,就像你的大脑在解数学题的时候那种烧脑状态;而 Gemini 3.1 Flash-Lite 负责快速反应,就像你手碰到烫的东西瞬间缩回来那种本能反应。
先说说 GPT-5.4 这个"大脑"。
这玩意儿适合干啥呢?复杂推理、多步骤工具调用、编程调试、长上下文规划,这些都是它的强项。在智能体系统里,GPT-5.4 通常承担任务规划、工具链推理、长周期任务管理这些核心职责。想象一下,你让 AI 帮你策划一场婚礼,从选场地到定菜单到发请柬,中间涉及几十个步骤,这时候就需要 GPT-5.4 这种能进行深度思考的大脑来统筹全局。它能把一个复杂的任务拆解成一个个小步骤,然后按顺序执行,还能在执行过程中根据实际情况调整计划。这种能力在智能体系统里叫"任务规划",是智能体能够自主运行的基础。
再说说 Gemini 3.1 Flash-Lite 这个"神经反射"。
这是 Google 推出的一款极低成本、超高吞吐的模型,专门用来处理高频轻量级任务。典型的使用场景包括信息抽取、文本分类、快速翻译、批量处理、智能体路由等等。
Flash-Lite 有几个特别突出的特点:首先是支持百万级 token 的上下文,这意味着它可以一次性处理超长的文本;其次是极低的推理延迟,响应速度特别快;最重要的是成本远低于大型模型,用起来特别省钱。在智能体系统里,Flash-Lite 通常作为第一道关卡,负责判断用户请求的复杂度,然后决定是自己快速处理还是转交给 GPT-5.4 进行深入分析。
OpenClaw 推荐的模型路由模式是这样的:用户请求首先进入 Flash-Lite 进行复杂度判断,如果是简单任务就直接由 Flash-Lite 处理,如果是复杂任务就转交给 GPT-5.4。这种架构在业界被称为 AI Model Routing。
它的好处特别明显:成本可以降低 10 到 50 倍,延迟大幅降低,系统可扩展性显著提升。想象一下,如果每个请求都用 GPT-5.4 处理,那成本得多高啊?但现在有了 Flash-Lite 在前面挡着,简单的活儿它自己干了,只有真正复杂的活儿才交给 GPT-5.4,这样既保证了效果又控制了成本。这种设计思路特别聪明,就像是一家餐厅,前台服务员先判断客人要点什么菜,简单的直接下单,复杂的才找经理来协调,整个流程既高效又省钱。
ACP 持久绑定:让智能体重启后依然记得工具的魔法
ACP 的全称是 Agent Client Protocol,也就是智能体客户端协议。它的作用是让智能体能够绑定外部工具,比如 shell 命令行、浏览器、数据库、邮件系统、日历应用等等。
1、让聊天频道和话题能"记住"设置(#34873)
- 给 ACP 添加了永久保存 Discord 频道和 Telegram 话题的功能
- 现在重启程序后,这些设置不会丢失
- 加了配套的命令行和文档支持
- 感谢 @dutifulbob 的贡献
- 现在在 Telegram 里用 /acp 命令时,可以识别带 Mac 风格破折号的命令选项
- 支持 --thread here|auto 这样的参数来绑定话题
- 绑定后,该话题里的后续消息都会自动转到对应的 ACP 会话里
- 增加了带 ID 的审批按钮,点击就能审批
- 成功绑定的确认消息会自动置顶
在最新发布的 OpenClaw 中,您可以通过代理客户端协议 (ACP) 直接在 Telegram 主题和 Discord 频道中使用 Claude Code、Codex 和其他编码代理。
以前这仅限于临时的 Discord 主题,但现在您可以将其永久绑定到顶级 Discord 频道和 Telegram 主题!
这样,您就可以在 OpenClaw 中自由使用 Claude Code,而无需担心帐户被封禁!
如果您希望 OpenClaw 框架到 Anthropic 的请求为零,请务必使用非 Anthropic 帐户和模型作为默认 OpenClaw 代理。对于 ACP 与 Claude Code 的绑定,风险应该为零!
Slim Docker 多阶段构建:让容器镜像瘦身的艺术
这次更新里还有一个特别实用的改进,就是 Slim Docker 多阶段构建。Docker 这玩意儿大家应该都听说过,它是一种容器技术,可以把应用和它的运行环境打包在一起,实现"一次构建,到处运行"。但是传统的 Docker 构建方式有个大问题:镜像体积太大。很多 AI 项目的 Docker 镜像动不动就是 3GB、5GB,甚至 10GB,这会带来一系列连锁反应。
首先,CI/CD 流程会变慢。
CI/CD 就是持续集成和持续部署,是现代软件开发的标准流程。每次代码更新都要重新构建 Docker 镜像,如果镜像体积太大,构建和上传的时间就会很长,开发效率大打折扣。其次,部署速度会变慢。把这么大的镜像从仓库下载到服务器上需要时间,特别是在网络条件不好的环境下,部署一次可能要等十几分钟甚至更久。最后,云服务器成本会上升。很多云服务商是按存储空间和流量收费的,镜像越大,存储成本越高,传输流量费用也越贵。
Slim Docker 采用多阶段构建的方式来解决这些问题。
它的核心思路是:把构建过程和运行过程分开。在构建阶段,需要编译代码、安装依赖、下载各种库,这些操作会产生很多临时文件和编译工具;但在运行阶段,其实只需要最终的可执行文件和必要的运行时库就够了。多阶段构建就是在构建阶段完成后,只把真正需要的东西复制到一个新的、干净的基础镜像里,那些编译依赖、临时文件统统不要。这样做的好处是显而易见的:删除编译依赖、只保留运行时环境、减少镜像层数,最终得到的容器镜像体积小得多,启动速度也快得多。
对于 Kubernetes 集群部署来说,这一点尤为重要。Kubernetes 是谷歌开源的容器编排平台,现在已经成为云原生应用的标准部署方式。在一个 Kubernetes 集群里,可能运行着成百上千个容器实例,如果每个镜像都好几 GB,那集群的存储压力、网络压力、启动时间都会成为瓶颈。而用了 Slim Docker 多阶段构建后,镜像体积可能从 5GB 压缩到 500MB 甚至更小,整个集群的运转效率都会大幅提升。这种优化看似是技术细节,但实际上直接影响着智能体系统能否在大规模生产环境中稳定运行。
SecretRef 网关认证:给 API 密钥穿上防弹衣
智能体系统在实际部署中很容易遇到一个安全问题:API Key 到处乱飞。什么是 API Key?就是调用各种 AI 服务、第三方接口需要的密钥,比如 OpenAI 的 OPENAI_API_KEY、Google 的 GEMINI_API_KEY、Slack 的 SLACK_TOKEN、邮件服务的 SMTP_PASSWORD 等等。这些密钥就像是你家的大门钥匙,一旦泄露,别人就能冒充你调用服务,轻则产生高额费用,重则造成数据泄露。
但现实中,很多人为了方便,直接把这些密钥写进配置文件里。配置文件是什么?就是一些文本文件,用来记录系统的各种设置。把密钥写进配置文件的风险特别大:配置文件可能被意外提交到 GitHub 等代码仓库,一旦被公开,密钥就暴露了;配置文件可能在容器日志中留下痕迹,有心人通过查看日志就能拿到密钥;配置文件本身的权限管理如果不到位,也可能被未授权人员访问。
v2026.3.7 版本引入了 SecretRef 机制来解决这个问题。SecretRef 的概念来源于 Kubernetes Secret,是一种集中管理敏感信息的方式。它的核心思想是:密钥不直接写入配置文件,而是通过引用的方式使用。具体的配置示例是这样的:
auth:
type: secretRef
secret: openclaw-gateway-key
在这个示例中,配置文件里并没有直接写出密钥的内容,而是写了一个引用名称 openclaw-gateway-key。真正的密钥存储在一个安全的密钥管理系统中,只有经过授权的组件才能读取。这样做的好处非常明显:密钥不写入配置文件,从根本上避免了配置文件泄露导致密钥暴露的风险;密钥集中管理,便于统一维护和审计;支持安全轮换,当需要更换密钥时,只需要在密钥管理系统中更新,不需要修改所有用到这个密钥的配置文件。
这属于生产级部署能力的重大升级。在企业环境中,安全合规是重中之重。很多公司都有严格的安全审计要求,不允许在代码或配置文件中硬编码敏感信息。SecretRef 机制让 OpenClaw 能够满足这些合规要求,使得智能体系统可以安全地部署在金融、医疗、政府等对安全性要求极高的场景中。这不仅仅是技术层面的改进,更是 OpenClaw 从个人玩具走向企业级产品的关键一步。
HEIF 图像支持:让 iPhone 照片也能被 AI 看懂
OpenClaw 现在支持 HEIF 和 HEIC 格式的图像了。HEIF 是什么?这是 High Efficiency Image File Format 的缩写,也就是高效图像文件格式。这是苹果 iPhone 默认的照片格式,从 iOS 11 开始就成为标准。很多同学可能没注意过,你用手机拍的照片,如果是 iPhone,默认保存的就是 HEIF 格式,而不是传统的 JPG。
HEIF 相比传统格式有几个明显优势:首先是文件体积更小,在相同图像质量下,HEIF 文件比 JPG 小大约 50%,这意味着同样的存储空间可以存更多照片,传输时也更省流量;其次是图像质量更高,HEIF 支持更高的色深和更先进的压缩算法,能保留更多细节;最后是支持 HDR(高动态范围),可以记录更亮的高光和更深的暗部细节,让照片看起来更真实、更有层次感。
以前很多 AI 系统只支持 JPG 和 PNG 格式,用户如果想让 AI 分析 iPhone 拍的照片,得先手动转换成兼容格式,特别麻烦。现在 OpenClaw 直接原生支持 HEIF 图片输入,省去了这个转换步骤。这对于 OCR(光学字符识别,也就是识别图片中的文字)、图片理解、视觉智能体等应用场景非常重要。
想象一下这个场景:你拍了一张会议白板的照片,想发给智能体让它整理成文字纪要。如果系统不支持 HEIF,你得先找个工具转换格式,然后再上传,流程特别割裂。但现在 OpenClaw 直接支持,你拍完照直接发给智能体,它就能自动识别文字、整理结构、生成会议纪要,整个流程一气呵成。这种对主流格式的原生支持,体现了 OpenClaw 对用户体验的重视,也让智能体系统能够更好地融入用户的日常工作流。
多渠道聊天优化:让每个聊天应用都成为智能体的控制台
聊天渠道是 OpenClaw 的入口,用户通过聊天界面与智能体交互。这次版本优化了对多个聊天渠道的支持,包括 Telegram、Zalo 等。目标是让智能体控制入口更加稳定可靠。
未来的智能体发展趋势是:任何聊天应用都可以成为控制台。Telegram、Slack、Discord、WhatsApp,这些大家日常使用的聊天工具,都可以接入智能体系统。用户不需要学习新的界面,就在自己熟悉的聊天应用里,通过自然语言与智能体交互。
想象一下这样的场景:你在 Telegram 里给智能体发消息:"帮我分析今天的销售数据"。智能体收到请求后,自动连接到公司的数据库读取数据,调用 Python 进行数据分析,生成可视化图表,最后把报告和图表直接发回给你。整个过程你完全不需要离开 Telegram,就像跟朋友聊天一样简单。这种无缝的集成体验,大大降低了智能体的使用门槛,让非技术用户也能轻松享受 AI 的能力。
这次更新修复了之前版本中聊天渠道的一些稳定性问题,确保智能体在各种聊天平台上都能可靠地接收和发送消息。这对于企业级应用特别重要,因为企业用户往往已经在使用特定的协作工具(比如 Slack 或钉钉),智能体必须能够无缝接入这些现有工具,而不是强迫用户切换到新的平台。多渠道聊天优化让 OpenClaw 能够适应各种不同的使用场景,无论是个人用户还是企业用户,都能找到适合自己的接入方式。
OpenClaw v2026.3.7 的本质,是让智能体系统更像真正的操作系统。这六个关键升级每一个都在解决智能体从实验室走向生产环境的关键障碍。
GPT-5.4 与 Gemini Flash-Lite 的组合实现了智能体模型路由,让系统既能处理复杂任务又能控制成本;
ACP 持久绑定让智能体重启后不会失忆,具备了长期稳定运行的能力;
Slim Docker 优化了生产部署体验,让容器启动更快、占用资源更少;
SecretRef 提供了企业级的安全管理能力,保护敏感的 API 密钥;
可插拔上下文引擎让系统架构更加灵活,能够适应不同的应用场景;
HEIF 图像支持和多渠道聊天优化则提升了用户体验,让智能体能够无缝融入日常工作流。
一句话总结这版更新:OpenClaw 正在从一个 AI 工具框架,进化成 Agent Runtime,也就是智能体运行时。
极客辣评
核心方向其实很明显:
第一提升Telegram作为多智能体工作台的能力,
第二降低token成本,
第三稳定后台任务也就是cron和tool,
第四修补安全漏洞。
下面逐条解释这些更新真正意味着什么。
第一点,Telegram forum topics加per-topic agentId routing。
这是这次最关键的架构升级。背景是Telegram的forum或topic模式本质就是一个群里有多个线程。
之前OpenClaw的设计里,群对应一个agent,topic只是session隔离。所以一个群里的所有topic默认都是同一个智能体处理。
现在新增的能力是topic可以直接绑定agentId。也就是说一个Telegram群等于多个智能体工作区。
举个例子,topic A绑定research-agent,topic B绑定coding-agent,topic C绑定cron-report-agent。用户在不同topic发消息,系统直接路由到对应智能体。
这个意义非常大,第一Telegram变成多智能体操作系统,第二不需要多个群,第三不需要多个机器人,第四topic就是智能体workspace。
这是典型的AgentOps架构升级。
第二点,Spanish Control UI加Perplexity Search API level-up。
这里有两个点,第一控制界面新增西班牙语,第二Perplexity搜索API升级。
Perplexity的升级通常意味着搜索结果结构更稳定,引用更清晰,工具调用更好用。这会影响一个重要能力就是智能体联网检索。很多OpenClaw的工具链其实依赖搜索,比如news、research、fact check、web scraping。这次等于提升搜索工具质量。
第三点,插件上下文缓存到系统提示词中,目的是降低token成本。这是一个很关键的优化。
OpenClaw的提示词结构通常是系统提示词加上插件说明、工具架构、记忆和对话内容。问题是插件说明非常长,例如浏览器插件、搜索插件、电报插件、文件系统插件。每次对话都会重复放进提示词。现在做了一件事就是插件上下文缓存到系统提示词中。
效果是
第一、插件说明只加载一次
第二、后续轮次复用
第三token大幅减少。
这对长对话非常重要,否则智能体系统的token消耗会非常高。
第四点,iOS Watch会话激活强化。这是移动端稳定性更新。意思是Apple Watch或iOS的会话激活流程得到加强。可能解决的问题包括手表唤醒时会话丢失、推送激活失败、语音触发的会话不稳定。简单说就是移动端的智能体会更可靠。
第五点,智能工具结果截断保留诊断信息。工具返回内容有时候会非常大,例如执行命令、日志、JSON数据、API响应。之前可能直接截断,问题是截断后诊断信息也没了。现在的新策略是智能截断,保留错误信息、堆栈跟踪、关键字段,删掉无用的重复数据。结果就是既节省token又能调试问题。这对开发者非常友好。
第六点,Cron重启语义经过深思熟虑。这个更新其实是在修复一个长期痛点。OpenClaw的定时任务系统过去有几个问题,任务执行、智能体会话、消息发送三者有时候不同步。例如定时任务执行了但Telegram没收到消息,或者重启后定时任务状态混乱。这次改动的关键词是重启语义,意思是重启后的定时任务行为经过重新设计。可能包括任务恢复、下次运行时间计算、会话上下文、消息投递。目标是系统重启后定时任务不会乱。
第七点,TTS现在与兼容OpenAI的接口良好协作。TTS也就是文本转语音以前主要支持固定的服务提供商,现在支持兼容OpenAI的API。这意味着任何兼容OpenAI API的服务都能提供TTS功能,比如本地TTS服务器、自托管推理服务、第三方AI服务。所以OpenClaw的语音能力更加开放。
第八点,修补了Hono和tar的漏洞。这是安全更新,涉及两个依赖,Hono和tar。Hono是网页框架,tar是npm的压缩包库。tar历史上经常出现路径遍历和文件覆盖漏洞。修补这些依赖可以避免插件安装攻击和文件系统攻击,属于安全加固。
可插拔上下文引擎是本次版本中最被低估的功能。大多数 AI 网关瓶颈并非模型质量问题,而是上下文切换开销造成的。
Bootstrap + 摄取生命周期钩子意味着您现在可以在不重启整个管道的情况下切换检索逻辑。 这对于多模型工作流程来说意义重大。 (ACP绑定在重启后仍然有效是另一个悄然取得的胜利——有状态代理循环的可靠性大大提高。)