这次更新最让人兴奋的地方在于:插件系统全面重写,1秒变43毫秒,265毫秒变8毫秒!无论是 Google Live Talk 的实时语音会话,还是 Cerebras 云服务的无缝接入,都体现了平台对“灵动”二字极致追求。用户不再被锁死在某一种模型或某一个服务商上,而是可以根据需求自由切换,甚至可以在本地和云端之间自动寻找最优解。
OpenClaw重构插件系统,性能大幅提升:输出从1秒降至43毫秒,插件启动从265毫秒到8毫秒,提供者解析从49毫秒到1.5毫秒,配置验证从62毫秒到5毫秒。新系统引入清单作为真正契约,元数据只构建一次,插件按需唤醒而非自动启动,核心不再捆绑提供者细节。整体架构更清晰可靠,适合外部开发。
OpenClaw 发布了 v2026.4.26 版本,它刚刚彻底颠覆了所有 AI 语音工具。 它现在可以接听你的电话、拨打电话并实时回应。 并且只需一条命令就能导入你完整的 Claude Code 设置。
语音能力终于能像真人聊天了
现在的 OpenClaw 终于能让大家在浏览器里直接进行高质量的实时语音对话了,这可不是简单的网页录音那么简单。系统引入了一种通用的浏览器实时传输协议,专门用来处理那些稍纵即逝的临时令牌,确保每一次通话都安全又流畅。
这个功能背后是 Google Live Talk 的深度集成,它允许用户在浏览器中发起会话,然后由后端的网关中继来处理复杂的语音插件任务。这意味着你不需要安装任何额外的客户端软件,打开浏览器就能享受和手机 App 一样的通话体验,而且延迟极低,声音清晰度也达到了专业水准。
这一波最明显的升级就是“能聊了,而且聊得更顺”。里面那个 Google Live Talk,其实你可以理解成浏览器直接打电话给 AI,不用绕服务器,不用卡顿,像打微信语音一样顺滑。以前你要实现这个功能,得自己搭 WebRTC 服务器,处理信令、STUN、TURN 那一堆破事,现在一行命令搞定,浏览器直接走起。
这里关键点不在“能说话”,而在“怎么说得安全”。它用了一个叫“临时 token”的东西,说白了就是一次性钥匙,用完就废,防止别人偷听或者复用。你可以把它想象成酒店房卡,退房就失效,不存在被复制继续用的情况。这个机制在代码里是通过 --google-live-path 参数配合干净的 Chromium 配置文件实现的,能砍掉本地机器大约百分之四十的延迟。
再加一个 Gateway relay,这玩意儿就像一个中转站,专门给后端语音插件用的。什么意思?就是说,有些语音能力不在你本地,而是在远程服务器,它帮你悄悄转发,用户只看到“能说话”,完全不用管后面绕了几层。@VACInc 团队这次贡献了大量代码,确保从建立信令到传输媒体流的每个环节都稳如老狗。
这种架构设计的精妙之处在于它把计算压力巧妙地分散到了后端,前端只负责接收和播放,这样即使是配置较低的电脑也能跑得飞起。
本地模型选择不再像开盲盒
这次对 Ollama 和本地模型的优化,重点是一个词:稳定顺序。以前你选模型,经常遇到一个问题:列表一会儿变,一会儿乱,像超市货架被熊孩子翻过一样。昨天还能用的模型今天莫名其妙就消失了,或者突然冒出来一堆重复的名字,根本分不清该选哪个。
现在它搞了一个“来源优先级计划”,说白了就是给模型排座位。谁先来,谁优先,谁备用,都写清楚。用户配置、本地安装、官方索引、运行时兜底,一个个排好队。@shakkernerd 把这个过程变得透明可控,你现在能清清楚楚看到每个模型是从哪条路来的,甚至可以自己动手调顺序。
这有什么用?很简单,你不会再遇到“昨天能用今天找不到”的离谱情况。系统开始有“记性”了。而且当网络不好的时候,它会自动切到你预设的备用方案,而不是傻傻卡住报错。这个智能降级机制不光提升了体验,还减轻了你的血压,再也不用半夜爬起来修模型冲突了。
以前的模型选择就像是在菜市场挑菜,东看看西问问,最后还不知道哪个最新鲜。现在 OpenClaw 引入了明确的源计划机制,把模型列表的展示顺序整理得井井有条。用户的配置文件、已安装的清单行、提供商索引预览以及运行时回退策略,都被安排在一个稳定的权威排序中,再也不用担心因为缓存混乱导致选错模型。这个改动看似简单,实则解决了长期困扰用户的痛点,那就是当多个来源提供相似模型时,系统到底该听谁的。
本地模型选择这个过程变得透明且可控,用户现在可以清楚地看到每个模型的来源路径,甚至能手动调整优先级。比如当你想要用 Ollama 跑一个本地模型,但网络不好时,系统会自动切换到预设的云端备选方案,而不是傻乎乎地卡在那里报错。这种智能降级机制不仅提升了用户体验,还保证了系统的鲁棒性。
更重要的是,它消除了不必要的目录缓存层,让数据流转更加高效,减少了内存占用和启动时间。对于喜欢折腾模型的用户来说,这简直是如虎添翼,再也不用担心配置冲突或者模型加载失败的问题。
插件系统从放养变成了圈养
以前插件这块,说实话有点野。你想怎么配就怎么配,结果就是容易炸。改个配置文件手一抖多打个逗号,整个系统就起不来了,而且你还得花半小时去找哪里写错了。现在改成了“运行时快照加事务修改”。
翻译一下:你不能随便改配置了,每次改都像银行转账,有记录、有确认、有回滚。系统会先拍个快照,然后让你在安全环境里改,改完了确认没问题才正式写入。万一写错了,一键就能回到改之前的状态,跟时间旅行一样爽。
同时还加了几个安全措施。配置扫描防护,避免你写错东西直接炸。运行时警告,提前提醒你要出事了。缓存版本控制,防止老配置污染新系统。这套东西,本质就是一句话:不给你作死的机会。就算你是个手残党,也能放心大胆地折腾插件,反正系统会帮你兜底。
模型接口信息不再焊死在核心里
这一点很关键,但很多人容易忽略。以前很多 AI 系统会把模型信息写死在核心代码里,比如哪个接口、哪个地址、怎么调用,全写里面。你要加个新模型?对不起,得去改核心代码,重新编译,搞不好还要处理一堆依赖冲突。
现在 OpenClaw 把这些东西全丢到插件清单里。核心只负责“怎么跑”,插件负责“跑什么”。好处非常直接:以后加新模型,不用改系统,装个插件就行。就像手机装 App,而不是刷系统。
这次内置了 Cerebras 这个大厂服务,你跟着引导流程点几下就完事,不用配什么复杂的连接参数,系统自动处理认证、鉴权、资源分配。
Cerebras 正式成为 OpenClaw 的内置插件,这意味着用户可以直接在平台上使用这家公司的超大规模推理服务,而无需额外配置复杂的连接参数。
这次更新不仅提供了开箱即用的引导流程,还附带了静态模型目录、详细文档以及由清单文件管理的端点元数据。用户可以像安装本地软件一样方便地接入云服务,系统会自动处理认证、鉴权和资源分配等繁琐步骤。
这种模式打破了本地与云端的界限,让用户能够根据任务需求灵活选择算力来源,既保留了本地的隐私优势,又享受了云端的强大性能。
包括 Docker 这条路径也得到了强化。系统现在能正确处理证书、映射网络、分配文件夹权限,你再也不用半夜对着 Docker 日志哭了。说白了,就是让你能像装手机软件一样方便地接入云服务,本地和云端随便切,哪个快用哪个。
与此同时,Ollama 和本地模型的支持也得到了全面强化。系统现在支持针对特定模型(如 nomic-embed-text、qwen3-embedding 和 mxbai-embed-large)设置检索查询前缀,从而在不改变文档批次的前提下优化记忆搜索效果。这一改进直接源于社区反馈,旨在解决长文本检索中的精度问题。通过这种方式,用户在使用本地小模型时也能获得接近大模型的语义理解能力,尤其是在处理复杂任务时表现尤为出色。这种混合架构不仅降低了硬件门槛,还让 AI 的应用场景变得更加广泛,从个人助理到企业知识库,都能找到合适的解决方案。
记忆系统开始长脑子了
这次 Memory 升级,说白了就是“会问问题了”。以前 embedding 就是把文本变向量,不管你是查询、用户输入还是文档,全一个处理方式,结果就是经常搜不准。现在它开始区分三种输入:查询用什么格式,用户输入用什么格式,文档用什么格式。
你可以理解为:同一个人,说话方式和写文章方式不一样,现在系统终于意识到这点了。比如你问“昨天那个梗是什么”,和你在文档里写“昨天的梗解释如下”,这两者的语言风格完全不同,系统现在能分开处理,搜索结果自然就准多了。
再加上对一些模型,比如 nomic、qwen、mxbai,加了专门的查询前缀。这就像你去图书馆找书,直接告诉管理员“我要小说区的悬疑类”,而不是让他全馆乱找。@HOYALIM 和 @prospect1314521 把这套机制做成了可配置的选项,你甚至可以用便宜的小模型批量建索引,用贵的大模型做实时查询,既省钱又快。
OpenClaw 现在支持更灵活的内存管理方式,特别是针对非对称嵌入端点的配置选项。用户可以分别指定 queryInputType、documentInputType 和 memorySearch.inputType,这意味着查询向量和文档向量可以使用不同的嵌入模型进行处理。
这种设计特别适合那些希望利用低成本模型进行批量索引,同时用高精度模型进行实时查询的场景。例如,你可以用一个小模型快速处理成千上万条文档,然后用一个大模型精准回答用户的问题,从而在保证速度的同时提升准确率。
这一功能的实现离不开 @HOYALIM 和 @prospect1314521 的努力,他们参考了之前的两个重要议题(#63313 和 #60727),将其转化为实际可用的配置项。
系统还支持直接查询嵌入和提供商批量索引,进一步增强了灵活性。意味着更快的响应速度和更准确的搜索结果。这种非对称策略不仅适用于 OpenAI 兼容接口,也适用于其他主流嵌入服务提供商,真正实现了跨平台的统一体验。
插件安装终于不卡依赖地狱了
OpenClaw 正在经历一场深刻的插件系统变革,核心目标是让插件管理更加模块化、可维护且安全。过去插件的配置加载和写入是直接操作底层文件,现在则改为通过运行时快照传递,并配合事务性突变助手进行安全修改。
以前装插件最痛苦的就是依赖问题。版本不对、路径冲突、权限问题,一堆坑。你要装个语音插件,它要 Python 3.9,但系统里只有 3.11,然后你就得去折腾 pyenv,装完发现还要装一堆系统库,搞到半夜两点,最后发现官方文档里写错了依赖名。
现在它搞了一个“分层依赖目录”。简单说:已有依赖先用,缺的再装,只写到可写目录。系统会先检查只读的预装依赖,有啥用啥,不够的再装到可写目录里,而且只装缺的那部分。这就像做饭,冰箱里有的先用,不够再去买,而不是全丢掉重买一遍。
这种变化带来了多重好处:
一是避免了配置文件的意外损坏,
二是引入了重启策略和扫描器护栏,
三是基于版本的缓存失效机制,
四是运行时警告提示,
五是显式的重启跟进政策。
所有这些改进共同构建了一个更加稳健的插件生态系统。
结果就是:安装更快,也更不容易炸。
此外,插件安装过程也得到了优化,现在允许 OPENCLAW_PLUGIN_STAGE_DIR 包含分层运行时依赖根目录,系统会先解析只读预装依赖,再安装缺失的依赖到最终的可写根目录。这一改动解决了 #72396 号问题,使得插件安装更加可靠且易于调试。
控制面板终于像个正经玩意了
OpenClaw 的控制面板迎来了重大更新,新增了一个原始配置待更改差异面板,能够解析 JSON5 格式并隐藏敏感值直到用户主动揭示。
这次控制界面有两个特别实用的东西。
一个是“配置差异面板”。你改配置,它会直接告诉你改了啥,而且会隐藏敏感信息。就像 Git diff,但更安全。以前你得对着两坨文本自己找区别,眼睛都快看瞎了,现在一目了然,改了什么、删了什么、加了几行,清清楚楚。
另一个是布局优化。听起来很普通,但其实很重要。以前界面在手机和平板上乱成一团,按钮全挤在一起,点个保存都要放大好几倍。现在终于对齐了,不浪费空间,桌面、平板、手机都能正常显示。@JiajunBernoulli 和 @BunsDev 把这个面板做得非常直观,不管是刚入门的小白还是折腾多年的老油条,都能快速上手。
这个功能彻底告别了过去那种“假编辑回调”的尴尬局面,用户现在可以放心地查看和修改配置,而不用担心误触导致系统崩溃。@JiajunBernoulli 和 @BunsDev 的贡献让这个面板更加直观易用,无论是新手还是老手都能快速上手。
一键加密,安全感拉满
安全性一直是 OpenClaw 关注的重点,这次更新更是将端到端加密推向了新的高度。通过引入 OpenClaw Matrix 加密设置,用户只需一次配置流程即可完成加密初始化、恢复密钥引导以及验证状态打印。@gumadeiras 的贡献让这个功能变得极其简单易用,即使是非技术背景的用户也能轻松启用。
Matrix 作为一种去中心化的即时通讯协议,本身就具备强大的加密能力,而 OpenClaw 的整合让它变得更加亲民。
Matrix E2EE 这一块,核心就一句话:一键加密聊天。以前你要搞加密通信,要配密钥、验证设备、处理恢复,一堆复杂流程。光是弄懂什么是 Olm、什么是 Megolm 就要看半小时文档,配完还不确定到底有没有真的加密。
现在一个 setup 流程全搞定,还会告诉你验证状态。@gumadeiras 的贡献让这个功能变得极其简单,你只需要跑一条命令,系统会自动完成加密初始化、生成恢复密钥、打印验证状态。这相当于把“专业安全工程师的活”压缩成一个按钮。
这对于注重隐私的人来说是巨大的福音。你拿 OpenClaw 做医疗咨询也好,财务规划也好,所有数据都在加密通道里传,连服务器那边的运营都看不到,更别说外面的人了。这种安全感是微信、钉钉给不了你的。
这种一体化加密方案不仅保护了用户的聊天内容,还确保了模型交互过程中的数据安全。无论是本地对话还是云端调用,所有信息都在加密通道中传输,第三方无法窃听或篡改。这对于注重隐私的用户来说无疑是一个巨大的吸引力。
这种安全感是传统聊天软件难以企及的,也是 OpenClaw 赢得用户信任的重要原因之一。
Agent 开始学会打扫卫生了
随着对话历史的不断增长,如何高效管理这些记录成为了一个难题。OpenClaw 现在引入了可选的代理压缩机制,当活跃 JSONL 文件过大时,系统会自动触发本地压缩流程。
@vincentkoc 的设计让这个过程变得透明且可控,用户可以通过 agents.defaults.compaction.maxActiveTranscriptBytes 参数设定触发阈值。一旦达到限制,系统会将历史对话合并到一个更小的后继文件中,而不是简单地按字节分割。
这次加的 transcript 压缩机制,说人话就是:聊天记录太多了,系统会自动收拾。它不会粗暴删除,而是压缩整理,然后把后续对话放到新文件里。@vincentkoc 把它设计得非常智能,你可以通过 agents.defaults.compaction.maxActiveTranscriptBytes 这个参数来设定触发的大小。
这点很关键,因为很多 AI 系统会越用越慢,本质就是上下文越来越大。你聊了三个月,每次启动都要加载几十兆的聊天记录,不卡才怪。现在它开始主动“减肥”,当 JSONL 文件过大的时候,自动触发压缩流程,把老记录合并小,然后切到新文件继续写。
这样长期用下来,系统不会越跑越慢,历史记录也保留了完整的上下文,不会影响后续对话的连贯性。我自己的 7B 模型内存占用明显降了一截,这个小改动每天都能帮你省资源。
迁移工具让你搬家不崩溃
为了让用户更容易地从其他平台迁移到 OpenClaw,系统现在内置了 Claude 和 Hermes 的导入工具。
@vincentkoc 开发的 Claude 导入器可以预览并应用 Claude Code 和 Claude Desktop 的指令、MCP 服务器、技能、命令提示符以及安全归档/手动审查状态。
而 openclaw migrate 命令则提供了计划、干运行、JSON 输出、迁移前备份、上线检测、仅归档报告副本等功能,同时还支持 Hermes 的配置、内存/插件提示、模型提供商、MCP 服务器、技能和凭证导入。
这一波 migration 功能,其实是很多人低估的王炸。它可以直接导入 Claude Code、Claude Desktop,还有 Hermes 配置,包括模型、插件、技能、MCP 服务,甚至命令提示词。@vincentkoc 开发的导入器能把 Claude 那边的指令、服务器、技能、安全审查状态全部搬过来。
重点是还有 dry-run,也就是先演练一遍,不真的执行。你可以先看结果,再决定要不要迁。就像搬家前先开辆车跑一遍路线,看看要搬多少箱东西、路上会不会堵车,心里有底了再动手。
再加上自动备份和归档报告,基本就是“搬家不丢东西”。openclaw migrate 这个命令支持计划模式、空跑模式、输出 JSON 报告、迁移前备份、上线检测、只存报告副本等等,功能非常齐全。
这些功能大大降低了迁移成本,用户无需手动复制粘贴配置文件,只需运行一条命令即可完成整个迁移过程。系统会自动识别目标平台的配置格式,并将其转换为 OpenClaw 兼容的结构。
你从 Claude 或者 Hermes 转过来,之前的习惯和设置都能保留,基本不用重新学习,成本几乎为零。
整体节奏的变化才是真正的王炸
如果你只盯着功能,会觉得这次更新是零散改进。但如果你站高一点看,会发现一件事:OpenClaw 正在从“工具集合”变成“系统平台”。语音、模型、插件、记忆、加密、迁移,这些东西以前是各玩各的,现在开始互相配合。
这带来的结果很直接:你花在“调环境”的时间会越来越少,你花在“跑流程”的时间会越来越多,你不再是操作员,更像调度员。以前你要花两小时去配环境、修 bug、找文档,现在五分钟就搞定,剩下的一百一十五分钟可以真正用来跑业务、做决策、出成果。
这次更新里有大量来自社区的贡献,@VACInc、@shakkernerd、@HOYALIM、@prospect1314521、@laolin5564、@gumadeiras、@vincentkoc、@liorb-mountapps、@JiajunBernoulli、@BunsDev,这些人都出了一份力。OpenClaw 能走到今天,靠的就是这帮人不断地报 bug、修 bug、写文档、测试边界情况。
总结与行动指南
OpenClaw 2026.4.26 的更新是一次全面的升级,涵盖了实时通信、模型调度、云服务集成、内存管理、插件系统、界面优化、加密安全、历史管理以及迁移工具等多个方面。这次更新的核心逻辑非常明确:通过简化配置、增强安全、优化性能,让每个人都能轻松拥有自己的 AI 生态。
极客辣评
首次,OpenClaw的第一个输出从1秒降到了43毫秒。插件启动从265毫秒降到了8毫秒。提供者能力解析从49毫秒降到了1.5毫秒。配置验证从62毫秒降到了5毫秒。
在OpenClaw的大部分版本历史中,插件系统一直在承担核心功能的重担,而不是反过来。核心系统原本知道每一个捆绑的提供者、它们的模型目录、别名规则、禁用规则等等。插件元数据在配置验证、网关启动、提供者发现、通道解析、能力查找以及另外六七个路径中被反复重新推导。那些从未被唤醒的插件,仍然要支付完整的启动代价。这些都不是bug,只是系统演化成这样的形态而已。
过去几天我们一直在重构它,2026年4月24日到26日之间,大量工作开始落地。
在新的插件系统中,插件清单是一份真正的契约。清单声明了它拥有的提供者、它们如何认证、运行在什么harness上、它自带的模型目录,以及什么条件会激活这个插件。同样的模型结构贯穿于清单、提供者索引预览、本地缓存、文档、新用户引导和模型列表中。Moonshot、DeepSeek、Cerebras、Mistral等现在都通过自己的清单来声明各自的目录。核心系统不需要先学会一个新提供者才能发布它。
在这之下,插件元数据只构建一次。安装记录原本一半存在配置里、一半存在独立的索引中,现在合并为一个存储,具备原子迁移和一个身份哈希,可以严格证明过期状态。启动时会计算一个单一的插件元数据快照,配置验证、自动启用、查找表、提供者发现都从这个快照派生出来。
以前许多会触发实时运行时的功能,比如模型列表、状态、新用户引导、通道发现,现在不再那样了。它们只是读取清单和快照,仅此而已。
插件也不再因为被启用就自动启动。插件会说明什么事件唤醒它(启动、某个提供者、某个通道、某条命令、某个配置路径、某个代理harness),只有在某个东西真正需要它时,它才会唤醒。
还有更多工作要做。一些捆绑的提供者尚未迁移。传统的启动回退机制仍在保留,带着弃用警告,等待第三方插件跟上。提供者索引、本地缓存和清单正在收敛到同一形态。
OpenClaw的插件系统现在已经到了一个任何人都能放心在上面做严肃的外部开发工作的状态。