在五个维度全面升级:DeepInfra正式入伙带来新玩法,文件附件更智能,代理路由更安全,本地模型修复大胜利,网关会话稳如狗,带你秒懂技术升级背后的真实逻辑与使用体验。
智能体大脑来了新供应商DeepInfra
DeepInfra正式加入了OpenClaw的大家庭。这可不是简单的多了一个选项那么简单,而是相当于给系统请来了一个全能型的超级外援。DeepInfra这家伙自带了模型发现功能,这意味着你以后再也不用像无头苍蝇一样到处找模型在哪里了,系统会自动告诉你哪个模型适合干啥活。
它不仅能生成图片,还能编辑图片,甚至能把文字变成语音,这种多功能集于一身的能力在以前可是要好几套软件才能拼凑出来的。而且DeepInfra还有一套自己的用户引导策略,就像是一个经验丰富的老导游,会手把手教你怎么用最顺手的方式去调用它的各种能力。这对于那些刚入门的新手来说,简直就是雪中送炭,省去了无数摸索的时间。
这一波最显眼的升级是加了 DeepInfra provider,还有一堆渠道支持,比如腾讯元宝、QQBot。听起来像在疯狂加插件,其实重点不在“多”,而在“接入方式变标准化了”。
以前接一个模型供应商,大概率要干这些事:
- 写一堆适配代码
- 处理认证
- 处理返回格式
- 踩一堆奇怪的坑
- 最后还要祈祷它别突然抽风
现在这一版干了什么?它把这些流程抽象成“provider”,而且是自带能力的那种。
DeepInfra 接进来之后,直接就有这些能力:
- 模型发现
- 媒体生成和编辑
- 语音 TTS
- 向量 embeddings
- 还有一整套 onboarding 规则
这就相当于你不是在“接接口”,你是在“插一个完整服务模块”。
这差别很大:就像你以前买零件自己组电脑,现在是直接插一块功能卡,连驱动都帮你装好了。
以前你想用 DeepInfra 的模型,大概率得自己折腾配置、手写接口、到处找文档。现在好了,OpenClaw 直接把它打包进来,开箱即用。
模型发现功能会自动帮你把 DeepInfra 支持的模型列出来,你不用再去翻官网的模型清单。
媒体生成和编辑也打通了,这意味着你可以直接让 DeepInfra 帮你画图、修图、做视频相关的东西,不用跳转到别的平台。
TTS 就是文字转语音,嵌入向量则是给文本做语义编码,这两项都是 AI 应用里的基础设施。
最贴心的是"服务商自有 onboarding 策略",翻译成人话就是 DeepInfra 自己定义了怎么接入、怎么认证、怎么计费,OpenClaw 尊重这套规则,用户跟着走就行,不用猜。
这背后是 @ats3v 的贡献。开源社区就是这样,有人觉得某个服务商好用,就顺手把它接进来,造福后来者。
文件附件这事,看着小,其实是生产力开关
文件附件这件事,听起来简单,做起来全是坑。
以前的版本里,传个文件经常遇到各种问题:格式不支持、大小限制不明确、上传完不知道去哪找、不同频道表现不一致。这次更新直接给附件体验来了一次"精装修"。具体怎么修的,Release Notes 里没写太细,但"better"这个词在开源项目里通常意味着"之前确实挺烂的,现在至少能用了"。
文件附件是 AI 工作流里的高频操作。你跟智能体聊天,随手丢个 PDF、传张截图、发个代码文件,这是再正常不过的需求。如果这个过程卡壳,整个体验就崩了。所以这次优化虽然看起来只是两个小图标之间的改进,实际上影响的是每一天的使用流畅度。
文件附件其实是 AI 系统进入真实工作流的关键入口。
你想一下真实场景:
- 代码文件
- 图片
- 日志
- 数据表
如果附件处理不稳定,你整个系统就只能停留在“聊天工具”阶段。
这次优化的重点在两个地方:
- 处理更稳定
- 流程更顺滑
这意味着什么?意味着你可以把更多真实任务丢进去,而不用担心系统因为一个文件炸掉。
代理路由交给运营方,安全这件事终于有人背锅了
代理路由这块,是整个系统的“交通警察”
更新里有一条很多人会忽略,但其实非常关键:operator-managed proxy routing!翻译成人话就是:代理路由不再是随便走,现在有“管控”。
以前的情况像什么?像十字路口没有红绿灯,大家凭感觉开车。
- 模型请求走哪条路
- 用哪个代理
- 走不走本地
- 有没有风控
全靠配置,甚至靠运气。
现在变成什么?有“交警”了。
operator-managed 的意思就是:
- 谁能走
- 怎么走
- 什么时候走
- 失败怎么兜底
都被纳入一个统一规则。
这一步的意义很大,因为一旦你开始用多个模型、多个地区节点、甚至混合本地和云,这种调度如果不管控,迟早出事。
以前代理路由可能是自动的、动态的、或者由客户端决定的。现在改成"运营方管理",意思是路由规则由 OpenClaw 的运营团队统一配置和维护。
这带来了几个直接好处:
第一,规则更稳定,不会今天走这条路、明天走那条路;
第二,安全性更高,因为路由决策集中在可信方手里,不容易被中间人攻击或者恶意劫持;
第三,出了问题有人负责,你可以去找运营方而不是在 GitHub Issue 里漫无目的地提问。
代理路由在 AI Gateway 架构里是个核心环节。所有请求都要经过它,它决定了你的数据走哪条路、经过哪些节点、最终到达哪个模型服务商。把这件事交给运营方管理,相当于把交通信号灯从自动感应改成交警指挥,虽然灵活性降低了一点,但可靠性和安全性大幅提升。
模型选择更严格,本地模型终于不再抽风
模型选择变严格,这不是限制,是救命!
stricter model selection + local model fixes,这两个改进放在一起看很有意思。
很多人看到“更严格”,第一反应是:是不是更麻烦了?恰恰相反,这是在帮你减少踩坑。
以前的问题是什么?
- 模型名写错还能跑
- 选错模型结果奇怪
- 本地模型配置乱七八糟
然后你就开始怀疑人生:到底是模型不行,还是我不行?
现在的做法是:
- 选错直接拦
- 配置不对直接报
- 本地模型修复逻辑加强
这其实是在把“隐性错误”变成“显性错误”。听着有点狠,但这是对的。
因为调试 AI 系统最怕什么?最怕“看起来正常,结果全错”。
模型选择更严格,意味着 OpenClaw 在给你推荐或分配模型的时候,门槛提高了。以前可能有个模型刚上线、还没经过充分测试,就被塞进了可选列表。现在运营方加了更多审核环节,确保你看到的模型都是靠谱能用的。这对普通用户来说是好事,你不用再担心选到一个"半成品"模型,聊两句就崩。
本地模型修复则是另一个痛点。很多人喜欢在本地跑模型,图的是隐私和可控。但本地环境千差万别,Windows、Mac、Linux 各自有各自的脾气,显卡驱动、内存限制、路径配置,任何一个环节出问题,本地模型就启动失败或者运行到一半卡住。这次修复针对的就是这些"本地特有问题",让本地部署的体验更接近云端服务的稳定性。
这两个改动合起来看,OpenClaw 在传递一个信号:我们既要让用户有更多选择,也要保证这些选择的质量。不是一味堆数量,而是把每个模型的可靠性做扎实。
Codex Computer Use,这块是开始动真格了
这次还有一个很有意思的点:Codex Computer Use setup 加了一整套工具链。
包括:
- status/install 命令
- marketplace discovery
- fail-closed MCP checks
翻译一下这几个词:
- status/install:能检查状态、自动安装
- marketplace discovery:能发现可用资源
- fail-closed:出问题直接关掉,不冒险
这套东西组合起来,其实是在干一件事:让 AI 真正开始“控制电脑”,但前提是安全。
以前你让 AI 操作桌面,就像让一个刚学车的人直接上高速。现在变成什么?
- 先考驾照
- 再给你车
- 出问题自动刹车
这才是能上生产环境的姿势。
网关、频道、会话,三大基础设施集体打补丁
gateway, channel, and session reliability,这三个词涵盖了 AI 应用最核心的基础设施。
网关是流量入口,所有请求都要经过它。如果网关不稳定,整个服务就处于"薛定谔的可用"状态。频道是用户与智能体交互的通道,Telegram、Slack、QQBot、Tencent Yuanbao 这些都算。会话则是单次聊天的上下文状态,包括历史记录、用户偏好、临时数据。这三者任何一个出问题,用户体验都会直接打折。
这次可靠性修复覆盖的范围很广:Telegram 的启动和发送逻辑、Slack 的 socket 连接和媒体传输卡顿、网关启动时的预热机制、会话和历史记录的默认值、更新同步逻辑、Windows 重启后的状态交接。参与贡献的开发者有一长串:@joerod26, @obviyus, @shivasymbl, @freerk, @bassboy2k, @jpreagan, @islandpreneur007, @Thatgfsj。这么多人同时扑在稳定性上,说明团队对这个版本的可靠性有很高的要求。
特别值得一提的是 Windows 重启 handoff。Windows 用户的痛点经常被开源项目忽视,因为开发者大多用 Mac 或 Linux。这次专门修了 Windows 重启后的状态交接,说明 OpenClaw 团队确实在认真照顾全平台用户。
彩蛋:Codex 电脑控制、腾讯元宝、QQBot、插件元数据
这次 Release 还有几个值得关注的彩蛋。
Codex Computer Use 现在自带状态检查和安装命令,还能从应用市场发现配置,并且加了 fail-closed MCP 检查。这意味着让 AI 控制你的电脑这件事,变得更安全、更可控了。MCP fail-closed 是个安全设计,意思是如果检查不通过,直接拒绝执行,而不是冒险放行。
腾讯元宝和 QQBot 的支持扩展,说明 OpenClaw 在中国市场的渠道覆盖在加强。元宝的文档和目录条目补齐了,QQBot 支持群聊、流式传输、媒体上传,还做了管道重构。这背后是 @loongfay 和 @cxyhhhhh 的贡献。
插件启动和模型目录正在向"manifest-first 元数据"迁移。这个改动听起来很技术,实际效果是让网关启动时的工作量减少了,服务商的别名、抑制规则更容易审计。简单说就是系统启动更快、配置更清晰、排查问题更容易。这是 @shakkernerd 的手笔。
manifest-first 这招,属于工程味很重但很关键
更新里有一句很工程化的话:manifest-first metadata
翻译成大白话:先写清楚“说明书”,再让系统干活。
以前是什么模式?
- 系统启动的时候临时拼配置
- Gateway 启动压力大
- 很多东西要现场解析
现在变成什么?
所有插件、模型、provider 都有清晰的“清单文件”!好处很直接:
- 启动更快
- 结构更清晰
- 问题更容易查
- 哪些模型被用
- 哪些被屏蔽
- 别名怎么映射
两个要点
1、最重要DeepInfra带来的革命性变化:
DeepInfra就是一个集成了多种高级AI能力的平台,它就像是一个巨大的资源宝库,里面装满了各种各样的模型和服务。以前用户想要使用这些服务,可能需要分别去不同的网站注册账号,还要面对各种复杂的API接口,现在这一切都被整合到了OpenClaw的一个界面里。
DeepInfra的模型发现功能特别实用,它会根据你的具体需求自动推荐最合适的模型。比如说你想生成一张图片,它就会立刻告诉你哪个模型画得最好;如果你想把一段文字转成语音,它也会马上列出几个音质最好的选项供你选择。这种智能化的推荐机制,极大地降低了用户的使用门槛,让即使是技术小白也能轻松上手。
媒体生成和编辑功能的加入,更是让OpenClaw的实用性大增。以前你可能需要专门找一个图像处理软件来做图,或者找个专门的TTS工具来转语音,现在这些功能都集成在了同一个平台上,而且操作起来非常简单直观。你只需要输入一些基本的指令,剩下的事情就交给AI去搞定,整个过程行云流水,没有任何拖泥带水的感觉。
Provider-owned onboarding policy这个概念听起来有点绕,其实意思就是DeepInfra提供了一套完整的用户引导策略。这套策略会根据你的使用习惯和能力水平,逐步教你如何更好地利用它的各项功能。比如刚开始的时候,它会教你最基本的操作,等你熟练了之后,再慢慢介绍一些高级技巧。这种循序渐进的教学方式,让用户能够更快地掌握技能,同时也减少了因误操作而导致的问题。
2、腾讯元宝与QQBot渠道拓展的深度解析
腾讯元宝和QQBot的支持,标志着OpenClaw在渠道覆盖上的又一次重大突破。这两个渠道的加入,不仅扩大了OpenClaw的用户群体,也为中国市场的用户提供了更加便捷的使用体验。腾讯元宝作为一个新兴的智能助手平台,拥有庞大的用户基础和丰富的应用场景,它的加入无疑为OpenClaw注入了新的活力。
腾讯元宝的文档和目录条目支持,使得用户能够更方便地获取相关的使用指南和参考资料。系统会自动同步最新的文档内容,确保用户始终能够获得最准确的信息。同时,目录条目的结构化展示,也让用户能够快速定位到自己需要的功能模块,提高了学习的效率。
QQBot的群聊支持、流式响应和媒体上传功能,则是针对社交场景的特别优化。在微信群聊中,用户可以直接通过OpenClaw调用AI能力,实现智能回复、信息查询等功能。流式响应的引入,让对话过程更加自然流畅,减少了等待的焦虑感。媒体上传功能的完善,则让用户能够方便地分享图片和视频等多媒体内容,丰富了交互的形式。
管道重构的背后,是对整个数据处理流程的优化。新的管道设计更加模块化,各个组件之间的耦合度降低,使得系统的可维护性和可扩展性得到了显著提升。这意味着未来如果需要增加新的功能或者修改现有的逻辑,都可以更加轻松地完成,而不会影响到整个系统的稳定性。
总之:DeepInfra 的加入丰富了服务商生态,文件附件和代理路由的优化提升了日常体验,模型选择和本地模型的修复保证了质量,网关、频道、会话的可靠性加固则是对整个系统底座的打磨。再加上 Codex 安全控制、腾讯系渠道扩展、插件架构优化。
总结
OpenClaw v2026.4.27 这次升级改进了桌面控制、供应商支持和整体性能。启动更快、支持的渠道更多、智能体更强。
下面是真有用的内容 ↓
1. Codex 电脑操作功能准备好了
智能体现在可以操控你的电脑桌面。
• 简单的安装命令
• 可以在市场里直接找
• 可选自动安装
• 默认就很安全
这是真正的电脑操作。
2. DeepInfra 直接内置了
完整支持:
• 各种模型
• 图像生成 + 编辑
• 文字转语音(TTS)
• 嵌入(Embeddings)
上手引导都给你配好了。
3. 腾讯渠道扩大了
• 元宝正式打包进来
• QQ机器人全面升级
群聊、历史记录、@提醒、流式传输、上传媒体都能用了,比以前完整多了。
4. 插件和模型加载更快
换成了以配置清单为主的元数据模式。
• 启动更快
• 模型处理更清爽
• 供应商目录更好用
所有东西加载得更干净。
5. 其他重要升级
• Docker 里支持 GPU
• 可以控制出站代理
• 手机端唤醒追踪更稳定
• 支持更多附件类型
• Matrix 和流式传输都有改进
修了一些真正烦人的问题
• Telegram、Slack、配对问题
• 审批和更新处理
• Windows 重启问题
• 插件/运行时稳定性
没有破坏性改动,升级很平滑。
怎么升级
openclaw update openclaw –version
npm install -g openclaw@latest
Docker 用户:拉取最新镜像然后重启就行。
这次更新让 OpenClaw 离真正能操作你电脑的智能体又近了一步。
极客辣评
DeepInfra 把「图片生成、文字转语音、视频生成」这三个功能,全都整合到了同一个 API 密钥(one key)里,这才是真正关键的地方。其他那些功能都只是锦上添花,没那么重要。
这次看起来像是一个相当注重基础设施的版本发布,尤其是在可靠性和路由方面,这些在生产代理系统中往往比模型质量本身更重要。
你可以用 Openclaw 运行 Codex Computer Use,我觉得你不需要同时使用这两个软件。
Codex 能够同时在本地和通过 SSH 更新我的 Claw mini,这彻底改变了游戏体验。
我通过 Telegram 成功升级了,没有任何问题。配合 Codex 使用简直是颠覆性的体验,一切都变得更流畅了。
OpenClaw 有几个很实用的黑科技:
- 会话记忆:龙虾能接着上次聊到一半的地方继续干,不用你重新说一遍“我刚才让你干什么来着”。
- 内置定时任务:龙虾能像闹钟一样,到点自己醒来干活。不需要再连 Zapier 或 n8n 这种自动化工具。
- 上下文压缩:龙虾脑子里的“缓存”快满的时候,它能自己把之前的内容总结一下,腾出空间。
- 技能文件:你把某个任务的流程写一遍,以后每次打开新对话,龙虾都会自动记住并且会做这件事。
- 代理流水线:可以把好几个 龙虾串起来。比如:第一个负责找素材 → 第二个负责写文案 → 第三个负责发布。全过程自动完成。
OpenClaw 和 SSH 的高级用法:
1. 把其他机器写进配置文件
把你手上其他电脑(比如一台 Mac Mini)的 IP 地址、用户名和密钥,提前写在 ~/.ssh/config 文件里。
2. 给这台机器起个“外号”
在终端里设置一个简短别名(alias),比如:
bash
alias claw="ssh mac-mini"
这样你只要输入 claw 就能直接连上那台 Mac Mini,不用再敲一长串 IP 和用户名。
3. 连上以后
你就可以在那台机器上直接运行Claude、Codex,或者用语音工具(Wispr Flow) 来控制,就像在自己电脑上一样。
效果: 操作比原来快很多,不用来回折腾。
最后一句提示:把这整段话复制粘贴给Claude,它就能自动帮你把这些配置都设置好。
或者用:https://tailscale.com/docs/features/tailscale-ssh