大量关于GPT 5.4在OpenClaw中表现糟糕的抱怨,根源指向配置错误而非模型能力本身。旧版本、关闭的推理开关、过低的思考强度以及错误的API调用路径,共同制造出一个被严重限制的运行环境。在这个被削弱的环境里,模型自然显得无法完成多步推理或保持对话连续性。真正调整好配置后,GPT 5.4的表现会有根本性提升,尽管它的行为风格与旧版Opus 4.6不同,更依赖清晰的控制而非完全自主发挥。
那些喊GPT 5.4不行的人多半没看配置单
自从Anthropic那边调整了策略,一大波人开始转向用GPT 5.4跑OpenClaw。这个转向完全合情合理,因为之前用Claude Pro或Max在OpenClaw里干活确实省钱省出了名。现在这条路被堵了一部分,大家自然就涌向了GPT 5.4,并且开始使劲折腾它。结果满世界突然冒出来一堆帖子,标题清一色都在骂GPT 5.4在OpenClaw里跟废物一样。但仔细看这些帖子里的描述,就会发现一个特别尴尬的事实:问题根本不在大脑本身,而在给大脑接的线全接错了。
很多人还在用老掉牙的OpenClaw版本跑新模型。有人直接把推理功能关掉了。有人把思考强度调到最低档。还有人压根没走对OpenAI的API路径。这个配置水平不是在测试模型,是在故意给模型戴上眼罩捆住手脚扔进迷宫。模型能回复最后一条消息,听起来也挺像那么回事,但只要任务需要多步推理,或者中间有什么情况发生变化,它立刻就崩了。那种“看起来在干活其实啥也没干成”的诡异感觉,就来自这套残废配置。
推理开关不打开等于让模型用一只眼睛干活
那个叫reasoning的开关如果没打开,模型的行为会受到极其严重的限制。它依然可以回答最后一条消息,依然能说出听起来合理的句子,这一点骗了很多人。他们看到模型确实在说话,就觉得配置没问题。但真正的坑藏在后面:一旦任务需要跨多个步骤进行推理,或者过程中有任何条件改变,模型就会像失去信号一样迅速垮掉。这种垮掉不是报错,而是继续说话但说得完全不在点上,或者突然停止推进。
很多号称展示GPT 5.4能力糟糕的演示视频,看起来假就假在这里。视频里模型确实在输出文字,但稍微往深看一步就能发现,它根本没有完成任何需要连续思考的任务。这不代表GPT 5.4天生在OpenClaw里就是废物,只代表那个演示里的模型从第一句话开始就被困在一个极其狭窄的工作空间里,根本没有发挥的空间。一个被关在笼子里的短跑运动员跑不出成绩,不能怪运动员腿短。
四个关键旋钮拧对了效果完全不同
第一件事是把OpenClaw版本至少升到2026.4.5。这个版本号不是随便写的,它对应了OpenAI新响应格式的稳定支持。老版本会在某些情况下悄悄退回到更差的行为模式,而且连个报错都不给。很多人被这种静默降级坑了,还以为是模型变蠢了。
第二件事是打开reasoning,这个开关虽然在最新版本里主要控制是否显示推理过程,但它同时也是确保模型走正确推理路径的前提条件。
第三件事是把thinking至少设到medium。思考强度太低的时候,模型会跳过必要的中间步骤,直接跳到结论。这个跳过动作在简单任务上看起来没问题,但任务复杂度稍微增加一点,跳过的步骤就会累积成巨大的逻辑断层。
第四件事是使用openai-responses而不是openai-completions。completions端点完全不支持推理令牌,用这个端点跑GPT 5.4,等于是把模型最强大的那个功能直接砍掉了,然后还要反过来骂模型太弱。
配置命令和代码路径的具体拧法
在OpenClaw里改这些设置的方式分两种。
一种是在聊天界面里直接输入命令。输入/reasoning可以控制推理显示的开关。输入/think可以调整思考级别。但要注意一个很常见的误解:reasoning开关只影响推理过程是否显示在界面上,它并不改变模型底层的工作方式。真正控制模型思考深度的是/think命令。把think设为xhigh时,响应时间会明显变长,但模型会在内部做更完整的推理链。
另一种改配置的方式是直接编辑openclaw.json文件。需要把API路径从openai-completions改成openai-responses。这个改动极其关键,因为completions路径根本不支持GPT 5.4的推理令牌功能。很多人在配置文件里找不到openai-completions这个字段,就以为自己没在用。但实际情况是,如果用OpenAI作为提供方,这个字段会以某种形式存在,只是可能被放在了不同层级或者用了不同的键名。仔细翻配置文件,找到API调用方式相关的字段,把它改成responses版本。
版本号差异造成的静默失败最坑人
OpenClaw的版本差异会造成一个特别隐蔽的问题:新模型在老版本上不会直接报错说版本不兼容,而是会悄悄启动一个降级行为模式。这个降级模式里,某些高级功能被自动禁用,但界面看起来一切正常。模型继续回复消息,继续输出文字,所有表象都让人觉得系统在正常工作。但实际效果已经退化到了一个更基础的水平。这就是为什么很多人明明觉得配置都按教程改了,模型表现依然很糟糕。
这种情况尤其容易发生在低于1.x版本的OpenClaw上。那些版本对OpenAI的新响应格式支持不完整,但又不会弹出任何警告信息。系统会默默切换到更老的兼容模式,而用户完全不知情。等到发帖抱怨模型不行的时候,所有人都以为是GPT 5.4的问题。实际上模型从头到尾都没有被允许使用自己的完整能力。这种无声的失败比直接报错要可怕得多,因为用户会浪费大量时间在错误的方向上排查问题。
即使配置正确GPT 5.4和Opus 4.6也不是同一个物种
把所有配置都调对之后,GPT 5.4在OpenClaw里的表现确实会好很多。假性进度变少了,随机停止变少了,对话连续性也变好了。但即便如此,它的行为风格依然和Opus 4.6有明显区别。Opus 4.6经常主动采取更多自主行动,有时候这种主动性让人觉得特别聪明,有时候又显得太过头了。那个自由度在带来惊喜的同时,也会带来更多跑偏的风险。不是所有人都喜欢模型自己决定往哪个方向走。
GPT 5.4的行为方式不太一样。它在运行过程中更需要外部验证,更依赖在关键步骤上被明确地引导和限制。这听起来像是模型变弱了,但换个角度看,这恰恰是更容易控制的体现。宁可模型在某些步骤上需要多确认一次,也不愿意模型自己拍脑袋决定走一条完全错误的路。个人偏好是倾向于后者。与其让模型拥有太多自主权然后偶尔飞到完全错误的方向,不如让模型始终保持在可控范围内,哪怕这意味着要更频繁地插手干预。
模型突然变笨的感觉往往来自无声的线上变更
一个非常让人抓狂的现象是:有时候模型的表现会突然在一天之内明显下降。前一天还在正常工作的配置,第二天就变得又懒又笨又不可理喻。OpenClaw本身突然变得更随意或者更机械。这种情况下,在聊天界面里会开始大量点踩,因为可以明确感受到存在某种量化的性能下降,而且这种下降在之前并不存在。这不是错觉,也不是使用者的心理作用。
这类突发的性能变化通常不是因为改了什么本地配置。OpenAI那边的Codex模型会在某些时间点突然变笨,ChatGPT会突然变懒变马虎,OpenClaw的行为风格也会突然变得更飘忽。这些变化没有任何预告,没有任何更新日志,也没有任何报错信息。使用者只能通过对话质量的断崖式下跌来感知到后台发生了某种变更。面对这种情况,除了等待或者切换模型,基本没有太多能做的事情。这不是OpenClaw的问题,也不是GPT 5.4的问题,而是云端模型在看不见的地方被调整了。
人格设定和消息格式对最终体验影响巨大
最新版本的OpenClaw里增加了一个设置人格的选项,可以选friendly模式。这个选项对GPT 5.4的效果出奇地好。很多人一开始完全不相信人格设定会显著影响模型的实用性,觉得这只是表面的聊天风格差异。但实际试过之后才发现,仅仅是改变了模型回应的语气和表达方式,整个交互的流畅度和效率都会有明显提升。不是模型变聪明了,而是模型用一种更容易被理解和接受的方式呈现了它的输出。
另一个影响巨大的配置是block streaming,特别是当OpenClaw跑在Telegram这样的即时通讯环境里时。开启块式流式传输之后,消息的到达节奏会更稳定,中断和乱序的概率会降低。这看起来是一个很技术性的底层设置,但它直接决定了长时间对话中模型是否还能保持连贯的输出节奏。很多人把断断续续的体验归结为模型能力不足,实际罪魁祸首是没开对传输模式,导致大量消息在传输过程中被打散或丢失了上下文关联。
不同模型的性格差异不是能力强弱问题
每个人对模型风格的喜好差别很大。有些人特别讨厌GPT 5.4的说话方式和回应模式。从纯粹的技术能力来说,这个模型完全没问题,算得上一个很能干的模型。但它说话的腔调、用词习惯、以及在对话中表现自己的方式,会让一部分人觉得无法忍受。这种反感很可能不是理性判断,而是大脑已经把某种说话模式标记成了劣质AI内容的典型特征,然后看到类似模式就会本能地产生排斥反应。
切换到Minimax可以解决这种风格上的不适感。如果Claude还能继续用,那毫无疑问是最偏好的选择。但现在Claude这条路变窄了,就只能在模型的能力和自己对风格的接受度之间找一个平衡点。有人觉得GPT 5.4即使配置调好了也还是不好用,这种判断不是能力问题,而是风格匹配问题。一个能干的助手如果说话方式让人浑身难受,那它的能干就没有意义。反过来,一个能力稍弱但说话让人舒服的助手,反而更容易被长期使用。
消息搜索和回复长度需要单独校准
把thinking开到xhigh之后,响应时间会明显变长。这个变长不是故障,是模型在内部进行更完整的推理。但很多人看到响应变慢就以为是系统卡住了,然后提前中断或者重复发送消息,反而把正常的推理过程打乱了。xhigh模式适合需要深度分析的任务,不适合日常快速对话。日常场景下medium已经足够,xhigh反而会因为响应太慢而让整体体验变差。
另一个需要单独校准的是回复长度。GPT 5.4在reasoning打开之后,倾向于输出非常长的回复。如果同时打开了verbose模式,回复长度会进一步膨胀。很多人抱怨说一旦开启reasoning,模型就开始输出论文级别的长篇大论。这时候需要手动调整相关的长度限制参数,而不是直接把reasoning关掉。关掉reasoning等于放弃模型最强的能力,正确做法是在保持reasoning开启的前提下,用长度控制参数把回复压缩到合适的范围。
保持足够近期上下文防止对话逐渐退化
GPT 5.4在对话过程中对近期上下文的依赖程度比一些旧模型更高。如果上下文窗口管理不当,对话质量会随着轮次增加而逐渐下降。这种下降不是突然崩溃,而是慢慢地变得越来越不相关,越来越偏离主题。很多人察觉到这种下降之后,会认为是模型本身的连续性能力差。但实际上只要配置了足够的上下文保留量,让模型始终能看到最近若干轮对话的完整内容,这种退化就能大幅缓解。
上下文管理没有通用的魔法数字,取决于具体的使用场景和对话长度。但有一条经验规则:宁可多保留一些不需要的旧消息,也不要因为节省成本而把上下文窗口切得太小。GPT 5.4在处理被截断的上下文时,会试图用有限的信息继续推理,但推理质量会迅速恶化。这种恶化往往在对话进行到十几轮之后才显现出来,很容易被误认为是模型突然变笨了,实际上只是因为最早的几条关键信息已经被挤出了上下文窗口。