Anthropic核心研究员Sholto Douglas深度解析Sonnet 4.5为何是全球最强编码模型,并揭示AI远未达平台期,而是处于指数加速的早期阶段。
你以为AI已经到头了?错得离谱!我们连“婴儿期”都还没过
过去三年,每个月都有人跳出来喊“AI撞上天花板了”“模型进步停滞了”“算力到极限了”……但Anthropic(人类认知公司)的核心AI研究员Sholto Douglas直接拍桌反驳:这完全是误解!他用亲身经历告诉你——整个大模型的训练流水线,现在还是一条用胶带、熬夜、汗水和临时补丁硬拼起来的“原始管道”,每个环节都有巨大优化空间!这哪是成熟工业?这分明是刚刚点燃引信的火箭发射台。
想想看,你见过哪个真正成熟的产业,还会天天靠工程师通宵救火来维持运转?AI现在就处在这个阶段——看似火热,实则粗糙,但正因为粗糙,才意味着无限可能。Douglas甚至打了个比方:今天最先进的帆船,是几百年人类经验的结晶,几乎没法再优化;但今天的LLM训练流程,顶多只有两年半的“最佳努力”,离精雕细琢差了十万八千里。所以,别信那些唱衰论,真正的指数级爆炸,才刚刚拉开序幕。
从澳洲小镇少年到Anthropic核心研究员,他的人生剧本比AI还精彩
你可能不知道Sholto Douglas是谁,但他在AI圈内早已是传奇人物。这位来自澳大利亚的天才少年,从小就在“非典型”路径上狂奔。在那个大家都挤破头去当律师、医生或进金融圈的国度,他却靠着YouTube自学世界顶尖选手的技术,一路打进了全球花剑排名前50,巅峰时期排到第43位!
他的秘诀?顶级教练+顶级母亲导师的双重buff加持。他母亲本想投身公共卫生改革却因时代限制未能如愿,于是把全部能量倾注在他身上——他去中国交换前,母亲直接甩给他一整本关于中国政治经济与创业生态的深度报告!
后来他读到一篇关于“缩放假说(scaling hypothesis)”的文章,瞬间顿悟:通用人工智能(AGI)不是科幻,而是未来十年最值得投入的事业。于是他白天搞机器人,晚上自己搭模拟器、收遥操作数据、训模型,硬是在卧室里做出了当时极为前卫的“机器人通用基础模型”。
谷歌注意到他,直接抛来TPU算力和工作邀约。要知道,他当时连PhD都没申请上,却靠一篇独立博客敲开了顶级AI实验室的大门——Anthropic现在招人,最看重的不是学历,而是你是否能产出“世界级技术产物”,比如一篇被全行业奉为圭臬的CUDA优化指南。
为什么Anthropic死磕编程?因为这是AGI最短的经济闭环路径
很多人疑惑:为什么Anthropic不像DeepMind那样猛攻数学推理或蛋白质折叠,反而all in在“写代码”这个看似狭窄的领域?
Sholto给出了两个极其务实的答案。
第一,编程是加速AI自我进化的燃料。AI要实现自我迭代,首先得能帮人类AI研究员写代码、跑实验、调参数。谁先把“AI辅助AI研发”这条链路跑通,谁就掌握了AGI的快进键。
第二,编程拥有无可比拟的经济可行性——软件需求永远大于供给,开发者又是最愿意尝鲜、最能容忍早期bug的用户群体。
更重要的是,编程任务天然适合AI:你可以让模型失败100次,只要第101次成功就行;你可以用单元测试自动验证结果;你可以把任务容器化、并行化,无限次重试。反观自动驾驶或法律咨询?一次失败就可能万劫不复。
所以Anthropic的战略非常清晰:用编程这个“沙盒战场”,快速验证AI代理的长期任务执行能力,并通过开发者付费实现商业正循环,反哺更长期的对齐(alignment)研究。这根本不是技术局限,而是一场精密计算后的降维打击。
Sonnet 4.5凭什么号称“全球最强编码模型”?30小时连续作战是分水岭
Anthropic最新发布的Sonnet 4.5,直接在权威编程基准SWE-bench上从72分飙到78分——别小看这6分,要知道一年前整个行业还在20%以下挣扎。
但数字只是表象,真正的震撼在于它能“连续工作30小时”!
想象一下:你给它一个需求,“做个类似Slack的聊天应用”,然后它就在后台默默运行——读文件、写代码、跑测试、记笔记、自我修正,整整30小时不宕机、不跑偏。
这背后是两大突破:
一是“长期一致性(long-term coherency)”能力,模型能记住全局目标,不会陷入局部优化陷阱;
二是“记忆管理”机制,它会自动生成Markdown待办清单,像人类项目经理一样拆解任务、追踪进度、验证结果。
过去AI代理每30秒就需要人类干预一次,现在可能20分钟都不用看一眼。这种从“秒级”到“小时级”的跨越,意味着AI终于能处理需要多轮反馈、复杂调试的“真实软件工程”,而不仅是写个函数demo。连Cognition(Devin背后团队)都不得不重构整个架构来适配Sonnet 4.5——这才是技术碾压的真实写照。
强化学习(RL)才是2025年后AI爆发的真正引擎,预训练只是热身
很多人以为大模型的进化=堆数据+堆算力,但Sholto一针见血指出:2024年底开始,游戏规则已经变了!
过去我们靠“预训练”让模型“泛读全人类知识”,但这只能学会“表面模仿”;真正的智能跃迁来自“强化学习(RL)”——让模型在实战中试错、反思、优化。
举个最简单的例子:“我不知道”这句话,预训练模型永远学不会主动说,因为它在互联网文本里看到的都是“自信满满”的回答;但通过RL,你可以设计奖励机制:当模型面对未知问题时诚实承认,就给正反馈;胡编乱造就惩罚。久而久之,它就真的学会了“自知之明”。
RL的威力还在于它解锁了“测试时计算(test-time compute)”这个新维度:模型不再只是被动输出,而是能主动推理、分步解题、验证答案,就像学生做数学大题那样。
OpenAI的o1模型率先引爆这个方向,但Anthropic通过Sonnet 4.5证明,RL+长链推理能让AI在编程这种复杂领域实现质的飞跃。关键在于,RL不需要玄学架构创新——把最朴素的反馈机制做扎实,配合足够强的基座模型,奇迹自然发生。
所谓“莫拉维克悖论”正在被打破:机器人灵巧手不远了
总有人说“AI能下围棋却拿不起杯子”,这就是经典的莫拉维克悖论——人类觉得难的(推理),AI觉得简单;人类觉得简单的(感知运动),AI觉得难。
但Sholto认为这正在被颠覆!他举了两个铁证:
一是波士顿动力级别的机器人,两年内从踉跄学步进化到被踹倒后能“黑客帝国式”鲤鱼打挺,只因“行走”这个任务有清晰的RL奖励信号;
二是AI大模型现在能当“裁判”了——你让机械臂叠积木,语言模型可以实时判断“红块是否在蓝块上面”,自动生成奖励信号。
这意味着机器人再也不用依赖人类标注海量数据,而是靠AI导师+物理仿真快速迭代。Anthropic虽然主攻软件,但Sholto坚信:只要解决数据闭环和奖励机制,物理世界的自动化只是时间问题。未来你的AI代理不仅能在云端帮你写代码,还能指挥家里的机器人给你煮咖啡、整理房间——数字与物理的杠杆,终将合二为一。
不要被“幻觉”吓退,AI的自我修正能力已超乎想象
很多人对AI代理的担忧集中在“它会不会跑偏”“会不会胡说八道”。但Sonnet 4.5展现了一个惊人事实:现代AI代理的自我修正(self-correction)能力已经强到不可思议。
它能在30小时长任务中不断回溯检查、更新计划、修复bug,甚至主动放弃错误路径。
这种能力不是靠硬编码规则,而是在RL训练中内化的“元认知”——模型学会了像人类工程师一样问自己:“这个改动是否符合整体架构?”“这个方案会不会引入技术债?”Anthropic甚至在探索更激进的“AI社会”训练:让多个代理协作开发一个巨型代码库,通过它们之间的争论、冲突、妥协,自然演化出“好代码的品味(coding taste)”。
什么是好品味?就是代码不仅功能正确,还要易于多人协作、易于未来扩展。这种从“个体智能”到“群体智能”的跃迁,才是AGI的真正雏形。
经济冲击波已至:你的工作会被AI取代吗?
Anthropic团队特别关注OpenAI新推出的GDP评估基准——它把美国劳工统计局的所有职业拆解成具体任务,测试AI能否完成。
结果令人震撼:Sonnet 4.1已在跨经济部门(制造、金融、医疗等)全面领先。
这意味着什么?AI的能力边界正从“单一技能”扩展到“全经济任务覆盖”。Sholto给出的建议不是恐慌,而是“杠杆思维”:未来每个知识工作者都将拥有24/7待命的AI团队。你现在用两个编码代理,生产力翻倍;一年后你可能管理一支“数字员工大军”,处理从写代码、做分析到生成报告的全链条工作。真正的机会在于:用AI杠杆去解决那些被忽视的“大问题”——全球贫困、医疗可及性、住房危机。技术本身无善恶,关键看你用它撬动什么。
最后忠告:押注指数曲线,别被线性思维蒙蔽
整场访谈最震撼的一句话是:“过去三年,每个月都有人说AI到平台期了,但看看我们从SWE-bench 20%到78%的飞跃!”
Sholto呼吁所有人:停止用线性思维看AI,要相信指数增长。硬件算力(TPU/GPU超级周期)、算法效率(RL突破)、工程实践(长时代理)三大引擎同时点火,接下来两年的变化会比过去五年更剧烈。
作为个体,你不需要预测具体技术细节,只需记住:保持学习、拥抱工具、聚焦高杠杆问题。AGI或许不是某天突然降临,但它正通过每天微小的进步,重塑我们工作与生活的底层逻辑。别做那个在帆船时代嘲笑蒸汽船“噪音大”的人——你眼前的,是一场静默却不可阻挡的海啸。