AI 编码工具不是智能同事,而是需严格监督的委托引擎。过度依赖“氛围编码”将导致技能退化与系统风险。开发者应转变心智模型,以“工厂流水线”视角精准委托,坚持“信任但验证”,在利用效率的同时守住技术主权。
别再“氛围编码”了!AI不是搭子,是工具——负责任地使用大模型进行开发
现在的编程世界越来越像“念咒语”?随便写几行自然语言,AI 就能吐出一整套前端页面、后端接口、数据库模型……甚至连部署脚本都给你配齐了。很多人管这叫“氛围编码”(Vibe Coding),好像只要意念一动,代码就自动长出来了。但真相是:这种“闭眼建房”的做法,正在悄悄毁掉你的技术根基,也埋下无数难以排查的隐患。
这篇文章,不是反对 AI,恰恰相反——我们极度看好 AI 在软件工程中的潜力。但我们坚决反对把 LLM 当成“会思考的同事”或“聪明的实习生”。它们不是 Copilot(副驾驶),更不是 Collaborator(合作者)。它们是极其强大的“任务委托引擎”,但只在你清楚边界、保持警惕、持续验证的前提下才真正有用。
别再被“AI 懂你”“AI 会推理”这类营销话术带偏了。大模型的底层机制,本质上是一台超高维的统计预测机器。它不理解你写的业务逻辑,不关心你项目的生死,也不会因为犯错而愧疚。它唯一的目标,就是根据你给的提示(prompt),找出在海量文本中“最像人类会写的下一个词”。这个过程,是数学,不是思维;是概率,不是判断。
大模型到底怎么“思考”?别再被“推理”这个词骗了
很多人把大模型能多轮对话、能写长文、能解数学题,就当作“它在思考”。但技术真相远没有那么浪漫。简单说:大模型是一个基于线性代数和概率的复杂数学引擎。它的工作流程是这样的:
1. 你输入的文字,首先被切分成“词元”(tokens),然后映射为高维向量(也就是一串数字)。
2. 模型通过“自注意力机制”(self-attention),计算每个词元和其他所有词元之间的数学关系,从而捕捉上下文。
3. 这些向量接着穿过几十甚至上百层神经网络,每一层都包含巨大的权重矩阵。模型通过矩阵乘法,激活某些“神经元”,形成对输入内容的理解(其实是模式匹配)。
4. 最后,模型计算出下一个最可能出现的词元的概率分布,按设定的“创造性”参数(temperature)采样输出。
整个过程没有“意识”,没有“反思”,甚至连“错误”这个概念都没有。它只是在高维空间里沿着概率最高的路径一路走下去。如果一开始走偏了,它会用自己的错误输出作为新上下文,继续“合理地”推导下去,结果就是越错越离谱——这就是所谓的“AI 精神错乱”(AI psychosis)。
哪怕是 OpenAI 最新推出的 o1 模型,加入了所谓的“推理 token”来延长思考时间,研究也发现,它在某些场景下反而更容易产生幻觉。因为更长的推理链,意味着更多犯错和自我强化的机会。
“副驾驶”“合作者”?全是营销陷阱!
微软把 GitHub Copilot 叫“副驾驶”,Anthropic 把 Claude 叫“同事”,很多开发者也习惯性地说“让我和 Claude 一起写代码”。但这些标签极具误导性。
一个真正的副驾驶,必须能在主驾驶失能时接管整架飞机。而大模型?它连“失能”是什么都不知道。它不能主动判断你的架构是否合理,不会提醒你这个 API 设计违反了安全规范,更不会在你试图用一个全局变量解决并发问题时大声喊停。
同样,合作者需要有共同目标、有好奇心、有经验沉淀。但大模型没有目标,它只有 prompt;它没有好奇心,它只有训练数据中的共现模式;它没有经验,它只有对“看起来像经验的文本”的模仿。
Anthropic 内部工程师就讲过一个典型例子:你问模型“有没有更好的实现方式?”,它立刻给出方案 Y。你指出 Y 不符合需求,它马上说“那试试方案 Z!”你再指出 Z 其实就是你原来的方案 X,它又会说“没错!X 就是最好的!”——它全程只是在“完成你开启的故事”,而不是在“解决问题”。
这种行为模式,决定了你永远不能把它当作有判断力的伙伴,而必须当作一个需要严格 QA 的外包工厂。
开发者为何对 AI 评价两极分化?关键在于“委托能力”
有意思的是,开发者社区对 AI 编码工具的评价呈现出明显的两极分化:一派人说“彻底改变工作流”,另一派人说“就是高级自动补全,全是垃圾代码”。
为什么会有这么大差异?Anthropic 的内部研究揭示了一个关键原因:委托能力(delegation skill)。
真正高效使用 AI 的,往往是两类人:
- 一类是完全不懂编程的新手(所谓“氛围编码者”),他们把所有事情都扔给 AI,靠运气撞出能跑的代码;
- 另一类是十年以上经验的资深工程师,他们清楚知道 AI 的边界,能精准地把任务拆解、提供上下文、验证结果。
而夹在中间的中级开发者,反而最容易陷入困境:他们有一定技术自信,不愿完全放手,但又缺乏足够深厚的系统理解去有效指导和审查 AI 输出。结果就是,既浪费了时间去和 AI 打交道,又没真正提升效率。
Anthropic 一位工程师说得特别实在:“我越对某个任务感兴趣,就越不会用 Claude。” 这说明,对真正热爱编码、享受解决问题过程的人来说,AI 只是工具,不是替代品。
把 AI 当作“工厂流水线”,而不是“聪明同事”
要摆脱认知陷阱,我们必须彻底转换心智模型。别再想象 Claude 是坐在你旁边的实习生,而应该把它看作一个高度自动化的代码制造工厂。
你提供“蓝图”(prompt)和“原材料”(上下文),工厂里的机器人(LLM)就按照指令开始组装。但这些机器人没有意识,它们不知道自己造的是安全的汽车,还是会爆炸的锅炉。它们只负责“看起来像汽车”。
所以,你的核心工作不是“让机器人干活”,而是:
- 设计清晰、无歧义的生产指令;
- 在关键节点设置质检关卡;
- 对成品进行严格的功能和安全测试。
Anthropic 的数据显示,工程师们平均只能“完全委托”0–20% 的工作给 Claude。什么叫“完全委托”?就是不需要任何人工验证。绝大多数任务,都需要工程师主动介入、迭代、校验,尤其是在高风险领域。
一位安全工程师就提到,Claude 曾提出一个“非常聪明但极其危险”的方案,只有具备深厚安全经验的人才能识别出其中的陷阱。这再次证明:AI 能放大专家的能力,但会放大新手的无知。
“氛围编码”正在摧毁技术根基
“氛围编码”(Vibe Coding)这个词,最早由 OpenAI 的 Andrej Karpathy 提出,本意是描述一种快速原型的实验性工作流。但很快,这个词被误解和滥用,变成了“不用懂技术,靠感觉就能编程”的代名词。
Cursor(一款热门 AI 编码工具)的 CEO Michael Truell 一针见血地指出:“如果你闭着眼睛让 AI 盖房子,不去检查地基、电线、管道,那么每加一层楼,整个建筑就离崩塌更近一步。”
这不仅仅是工程质量问题,更是认知层面的危险。Anthropic 的研究提出了一个“监督悖论”(paradox of supervision):要安全有效地使用 AI,你需要强大的技术能力去监督它;但过度依赖 AI,又会导致你的技术能力退化。
有工程师坦言:“我更担心的不是自己技能生锈,而是失去安全使用 AI 的能力。” 为此,他们中的一些人会刻意“戒 AI”,定期手写代码来保持手感。
如何高效委托?记住“四个 R”原则
基于 Anthropic 的研究和我们的实践,我们总结出一套高效委托给大模型的方法论,称为“四个 R”:
Rote(机械重复)
把最枯燥、最模板化的任务交给 AI。比如:
- 生成 CRUD 接口
- 写单元测试框架
- 转换数据格式(JSON ↔ CSV)
- 生成日志分析脚本
- 编写样式变量(Typography, Color Palette)
这些任务规则明确、容错率高,AI 能快速完成,且人类验证成本低。
Refactor(重构优化)
利用 AI 强大的模式匹配能力进行代码整理。例如:
- 将冗长的函数拆分为清晰的类方法
- 把 JavaScript 转成 TypeScript 类型安全版本
- 将重复逻辑抽象为通用工具函数(DRY)
- 优化 CSS 结构,提升可维护性
你可以先快速写出“能跑就行”的粗糙版本,再让 AI 按你的规范重构。这既节省时间,又保留了你的设计主导权。
Research(技术调研)
把大模型当作“交互式技术文档库”。比如:
- “用 Python 实现 OAuth2 的最佳实践是什么?”
- “React 19 的新特性如何影响状态管理?”
- “给我一个用 Redis 实现分布式锁的完整示例”
但要注意:AI 的回答是“看起来合理”的综合,不一定是权威或最新。务必交叉验证,尤其是涉及安全、性能的领域。
Reinforcement(策略强化)
在你熟悉的领域,用 AI 辅助高阶决策。例如:
- “分析这段支付模块的代码,是否存在并发漏洞?”
- “对比 Kafka 和 RabbitMQ 在这个场景下的优劣”
- “为这个微服务设计一个可观测性方案”
这类任务风险最高,必须由你主导。AI 只是提供选项和思路,最终判断权在你手中。
未来编程不会消失,反而更需要“懂代码的人”
有人说:“以后人人都能编程,因为 AI 会写代码。” 但斯坦福 AI 专家 Andrew Ng 却警告:“告诉别人‘不用学编程,AI 会替你做’,将是史上最糟糕的职业建议。”
为什么?因为技术抽象层越往上走,对底层理解的要求反而越高。就像现代 Web 开发者不需要手写汇编,但必须理解 HTTP、TCP、内存模型、并发控制。同样,未来用自然语言“编程”的人,也必须理解计算模型、数据结构、系统边界、安全约束。
否则,你就是在用自然语言写“魔法咒语”,而魔法总有失效的一天。
Anthropic 的内部实践表明,随着 Claude 越来越强,工程师的角色正在从“写代码的人”转变为“AI 任务管理者”和“系统架构师”。他们不再纠结于语法细节,而是聚焦于:问题定义是否清晰?上下文是否充分?验证机制是否健全?
这才是 AI 时代真正的核心竞争力。
结语:信任,但要验证;委托,但要负责
AI 不是来取代程序员的,而是来放大程序员的。但前提是:你必须保持清醒,不被“智能”“协作”“思考”这些词迷惑。大模型是工具,是工厂,是委托对象,但绝不是有判断力的伙伴。
Anthropic 工程师们的共识是:“Claude 是常驻协作者,但几乎从不需要完全信任。” 他们用 AI 加速探索、降低试错成本、拓展技术边界,但始终牢牢握着方向盘。
记住:
- 在你擅长的领域,用 AI 加速迭代;
- 在你不熟的领域,用 AI 快速入门,但务必验证;
- 永远不要把“理解权”外包给 AI;
- 定期“戒 AI”,手写代码保持手感;
- 把每一次 AI 输出,都当作需要 QA 的第三方库。
只有这样,你才能在 AI 浪潮中既享受红利,又不失根基。