上下文工程决定Claude输出质量:子智能体分工、Skills精准注入


上下文工程决定AI输出质量:通过目标聚焦、计划先行、子智能体(sub-agent)分工、技能精准注入,用最小高信号token组合避免“AI浆糊”,实现人机高效协作。

为什么你的AI输出总是一堆“AI浆糊”?错不在模型,错在你没搞懂上下文工程!

满怀期待地让AI写代码、做设计、出方案,结果它给你的东西简直没法看——逻辑混乱、语法错误、功能缺失,甚至一本正经地胡说八道。

你气得直拍键盘:“这破模型是不是脑子进水了?”但Jarrod Watts,这位深耕AI代理工作流的实践高手早就点破了真相:现在所谓的“AI浆糊”(AI slop)根本不是模型的问题,而是用户没掌握上下文工程(Context Engineering)!尤其在像Claude Code这样的黑盒系统中,上下文是你唯一能掌控的输入变量。

你给它喂什么,它就吐什么。喂垃圾,吐浆糊;喂精华,出神作。

所以,今天我们就来深扒上下文工程的底层逻辑,手把手教你把AI从“人工智障”调教成“人工高能”。

上下文到底是什么?别再以为只是你写的那几行提示词!

很多人以为“上下文”就是自己敲的那几句prompt,大错特错!在大语言模型的世界里,上下文指的是你发送消息时提供给模型的所有信息总和

这包括你的当前提示、系统预设指令、对话历史、模型自己的“思考过程”、工具调用记录、子代理输出、元数据……统统算!简单说,上下文就是模型在回答你问题时“能看见的一切”。

而Claude Code的上下文窗口虽然标称20万token,听起来巨多,但实际能用的远没那么多。运行一下/context命令你就明白了:22.5%被系统预留作缓冲区,10.2%被系统提示占用,再算上MCP服务器、子代理、规则引擎这些开销,真正留给你的有效空间大概只有12万token。

更要命的是,即使你没填满窗口,上下文越长,模型性能越差——不是它傻,是它记不住那么多东西!

所以,上下文不是“越多越好”,而是“越精越好”。你的目标,是要找到那套“最小但高信号”的token组合,让每一字都发挥最大价值。

别被花哨功能带偏了!先搞定基础三件套,你已经赢了80%

刷X(原Twitter)时,你是不是总被各种炫酷的AI工作流刷屏:多智能体协作、MCP工具链、自定义技能库、动态钩子……看得眼花缭乱,恨不得立刻上手?

Jarrod Watts直接泼你一盆冷水:别急着搞复杂,先把基础打牢!

他说,只要做到三件事,你就已经站在了80%用户的前面:
第一,升级到Claude Code的最高套餐(/upgrade),别省那点钱;
第二,切换到目前最强的模型Opus 4.5(/model);
第三,用/init命令初始化一个项目配置文件,让AI真正理解你在做什么。

这三步看似简单,却是高质量输出的基石。

再配合一个黄金流程:先用Shift+Tab进入“计划模式”,让AI主动问你问题澄清模糊点,反复打磨方案,最后再执行。
记住,好的输出始于好的计划,而好的计划始于消除歧义。你越早让AI明白你的意图边界,它就越不会跑偏。

每次对话都要有明确目标!别让AI在模糊中“自由发挥”

Jarrod Watts强调,每一次新开的对话线程,都必须聚焦一个清晰的具体目标。比如:“我要修复这个登录页的表单验证bug”或者“我想为后台管理面板加一个数据导出功能”。目标越具体,上下文越聚焦,AI出错的概率就越低。如果是全新项目,目标可以宽泛些,比如“搭建一个AI驱动的宠物社交App”,但这就要求你投入更多时间在计划阶段——因为模糊性越高,误解空间越大。这时候,别怕啰嗦,让AI反复问你问题,直到它开始问一些“为了问而问”的琐碎细节。

同时,主动要求它多次审查你的计划:架构是否合理?有没有安全漏洞?测试策略怎么定?上线后怎么监控?把所有可能的歧义点都用细节填满,你就堵死了AI“自由发挥”的后路。记住,AI不是读心者,它只是上下文的“翻译机”——你给的信号越密集,它翻译得越准确。

卡住了?别死磕!果断重置上下文才是高手操作

最怕什么?就是AI执行后结果离谱,你反复让它“重做”“改得更好”,结果它越改越烂,陷入“你不行→它更不行→你更崩溃”的死循环。

Jarrod Watts斩钉截铁地说:这时候千万别硬刚!继续在同一个上下文里折腾,只会把垃圾信息越堆越多,模型越陷越深。

正确的做法只有两个:
要么用/rewind命令回滚到之前状态良好的对话节点;要么干脆/new开个新线程,把原始需求重写一遍,并明确指出上次失败的具体原因,比如“不要用React Context做状态管理,上次那样做导致性能瓶颈”。新上下文干净清爽,模型没有历史包袱,反而更容易产出高质量结果。

另外,如果你担心快撑爆上下文窗口,可以手动运行/compact压缩,或者信任Claude Code自动利用那22.5%的预留缓冲区做清理。

总之,保持上下文轻盈、聚焦、高信号,是避免“AI浆糊”的核心法则。

警惕“复杂性陷阱”!MCP、子代理、技能库不是越多越好

社交媒体上充斥着各种“AI工作流炫技视频”,仿佛不用MCP服务器、不搞多智能体协作,你就落伍了。

Jarrod Watts却一针见血:大多数时候,这些高级功能反而会拖累你!

MCP(模型上下文协议)服务器虽然能接入GitHub、Figma、Linear等外部工具,但每次调用都会把大量低价值信息塞进上下文——比如整篇文档、冗长的API返回、无关的代码片段。这不仅吃掉宝贵token,还浪费你的算力费用。

他自己的经验是:只保留三个真正高效的MCP工具——Exa.ai(专为AI代理优化的网络搜索)、Context7(实时更新的AI工具文档)、Grep.app(GitHub代码搜索)。关键在于“按需获取”(Just-in-Time Context),即只在真正需要时才让AI调用工具查资料,而不是一股脑全塞进去。

用子代理当“图书馆员”?这才是节省上下文的神操作!

那怎么既用好外部工具,又不污染主上下文呢?

Jarrod Watts的私藏技巧是:用子代理/子智能体(Subagents)!

子代理是Claude Code里的独立AI实例,拥有自己的上下文窗口和模型配置(比如用便宜的Sonnet代替昂贵的Opus)。你可以创建一个专门的“图书管理员”子代理,让它负责去GitHub和文档站里挖掘高质量实现方案,然后只把浓缩的精华摘要返回给主代理。举个栗子:你在主对话里说“让图书管理员研究一下怎么用Y库实现X功能,然后帮我写Z”,子代理就会默默执行搜索、分析、总结,最后只用几句话把核心逻辑喂给主AI。

这样,主上下文始终保持干净,既省token又省钱,输出质量还更高。子代理的本质,就是把“信息采集”和“决策执行”解耦——让便宜模型干脏活累活,贵模型专注核心创造。

技能(Skills)不是魔法,只是高密度提示词的智能注入

很多人对“技能”(Skills)功能充满神秘感,以为是什么黑科技。

其实真相很朴素:Skills技能就是一段预设好的高质量提示词模板,在AI判断需要时自动注入当前上下文。

比如Claude Code内置的“前端设计师”技能,本质上就是一套关于UI/UX最佳实践的详细指南——什么情况下用Flex,什么场景避免绝对定位,字体层级怎么规范……当AI检测到你在做前端任务,它就会把这段“专家经验”临时加载进来,瞬间提升输出专业性。

但Jarrod Watts提醒:别滥用!每个技能都会占用token,如果当前任务根本不需要,硬塞进去反而浪费资源。技能的价值不在于数量,而在于匹配度。你可以自己编写技能模板,比如“安全审计员”“性能优化师”,但前提是——它真能解决你当前的痛点。

真正的高手,把AI当同事而不是工具

通篇读下来,你会发现Jarrod Watts的核心思想不是教你怎么“操控”AI,而是教你如何与AI高效协作。他反复强调:上下文工程的本质,就是像指导人类同事一样指导AI——给清晰目标、消歧义、供资源、设边界、及时反馈。

你不会指望一个新人工程师在没需求文档、没技术规范、没上下文的情况下写出完美代码,那为什么对AI有这种不切实际的期待?Opus 4.5这样的顶级模型已经具备惊人的理解力和创造力,但它的发挥上限,完全取决于你提供的上下文质量。别再抱怨AI“智障”,先问问自己:我给它的信息够清晰、够精准、够高价值吗**?

关于作者:Jarrod Watts是谁?

Jarrod Watts是AI代理工作流领域的知名实践者和布道者。他长期深耕Claude生态,尤其擅长通过上下文工程、子代理架构和工具集成,将AI代理转化为高效可靠的生产力引擎。他的X账号(@jarrodwatts)以输出高密度、可落地的AI工作流技巧著称,拒绝空谈理论,专注解决开发者在真实场景中遇到的痛点。他提出的“最小高信号上下文”“子代理分工”“技能即提示”等理念,正在影响越来越多AI重度用户的操作范式。如果你厌倦了与AI的无效拉扯,他的方法论值得反复咀嚼。