GameOver:谷歌Gemini3显全栈威力!OpenAI承认英伟达GPU预训练受挫

谷歌Gemini 3全面领先,OpenAI承认预训练受挫,秘密启动“Shallotpeat”模型,押注自动化AI研究与超级智能,誓要夺回AI王座。

谷歌全栈优势建立在自研TPU基础上,谷歌的遥遥领先也说明了依托英伟达GPU的AI生态的缺点,虽然通用,但是还是不够快,耗能巨无霸。



谷歌已悄然登顶,OpenAI首次公开承认“我们落后了”  

OpenAI CEO山姆·奥特曼(Sam Altman)在一封发给全体员工的内部备忘录中罕见地承认,“谷歌最近在人工智能领域取得的进展,可能会给我们公司带来一些‘暂时性的经济逆风’。”

这句话看似轻描淡写,实则暗流汹涌——要知道,过去两年,OpenAI凭借GPT-4、GPT-4o和Sora一路高歌猛进,几乎垄断了全球AI叙事权。而如今,他们竟主动承认“风向变了”。

更令人心惊的是,奥特曼直接表示:“接下来外面的‘氛围’可能会有点难熬。”这几乎等同于向员工预警:我们可能要经历一段低谷期。而这一切的导火索,正是谷歌刚刚发布的Gemini 3。

据多方基准测试显示,Gemini 3已在几乎所有主流AI评测中稳居第一,从数学推理到代码生成,从多模态理解到长上下文处理,全面碾压GPT-5。

OpenAI引以为傲的“技术护城河”,正在被悄然填平。



预训练不是过时了,而是被谷歌玩明白了  

很多人以为,随着AI模型越来越“聪明”,预训练(pre-training)这个早期阶段已经不再重要,真正决胜负的是微调、对齐和推理优化。

但这次谷歌的胜利恰恰颠覆了这一认知。

奥特曼在备忘录中坦承:“谷歌最近在预训练方面做了非常出色的工作。”这句话背后藏着巨大的危机感。

预训练是AI模型的“地基”——模型通过吞噬海量无标注数据(如网页、书籍、代码)来学习语言、逻辑和世界知识。

过去一年,OpenAI内部却遭遇了严重的技术瓶颈:当他们试图将GPT-5扩展到更大规模时,原本有效的优化策略突然失效,训练过程频繁崩溃,数据利用效率骤降。

有知情人士透露,GPT-5的预训练“卡在了一个奇怪的临界点”,模型越大,性能反而越不稳定。而谷歌却通过改进数据清洗、课程学习(curriculum learning)和分布式训练架构,让Gemini 3在最新TPU集群算力加持下“吃得更饱、消化得更好”。

换句话说,不是预训练没用了,而是OpenAI在这块基本功上掉了队。这就像一个武林高手突然发现,对手不仅招式精妙,连最基础的站桩马步都比自己扎实得多。

根本原因是谷歌的全栈能力显出威力,这也是奥特曼前段时间疯狂投注AI基础设施的原因,不是他以领先者圈地,而是试图用英伟达GPU与谷歌TPU做一次决战。



“Shallotpeat”横空出世:代号背后藏着OpenAI的耻辱与野心  

面对如此被动局面,OpenAI没有坐以待毙。

奥特曼在备忘录中向团队传递了一个关键信号:“我们正在开发一个名为‘Shallotpeat’的新语言模型,专门用于修复我们在预训练过程中出现的各类缺陷。”

这个名字乍听古怪,实则暗藏玄机。“Shallot”是干葱(小洋葱),而“peat”是泥炭土——这种土壤酸性强、排水差,极不适合洋葱类植物生长。

换句话说,“Shallotpeat”寓意着“在糟糕的训练土壤中依然能茁壮成长的模型”。这无疑是对过去预训练失败的自嘲与反击:既然我们的数据和算力“土壤”不够肥沃,那我们就造一个能在贫瘠之地开花结果的AI!

据内部人士透露,Shallotpeat项目已秘密推进数月,核心目标是重构整个预训练流水线,包括引入更智能的数据筛选机制、自适应学习率调度,以及一种新型的“训练稳定性增强模块”。

更有意思的是,该项目可能不再沿用传统Transformer架构,而是尝试融合状态空间模型(SSM)或混合专家(MoE)的变体,以突破当前扩展律(scaling law)依赖算力的瓶颈。如果成功,Shallotpeat不仅是一次技术补救,更可能成为OpenAI下一代大模型(或许是GPT-6)的基石。



奥特曼的豪赌:宁可暂时落后,也要押注“超级智能”  

更令人震撼的是奥特曼的战略定调。他明确告诉团队:“我们必须专注于‘非常宏大的赌注’,即使这意味着我们在当前竞争格局中暂时落后。”这句话透露出OpenAI的终极野心——他们不再满足于“更好的聊天机器人”或“更强的视频生成器”,而是要把全部火力集中在“超级智能”(superintelligence)上。

具体来说,OpenAI正全力推进“AI自我进化”系统,即用AI自动设计、训练和评估下一代AI模型,大幅缩短研发周期。

想象一下:未来一个AI系统能自主提出新架构、生成训练代码、调试分布式训练错误,甚至预测哪些数据对提升特定能力最有效——这将彻底改变AI研发范式。奥特曼强调:“让大多数研究人员聚焦于超级智能,是‘至关重要’的。”

这意味着OpenAI可能正在收缩部分商业化产品线(如企业API、定制模型服务),将顶尖人才重新集中到基础研究上。这种“断臂求生”式的战略,在华尔街看来或许是危险的,但在阿尔特曼眼中,却是唯一能确保OpenAI长期统治地位的道路。毕竟,如果谷歌靠Gemini 3赢了“战役”,OpenAI必须靠超级智能赢得“战争”。



谷歌的Gemini 3到底强在哪里?  

要理解OpenAI的焦虑,必须看清Gemini 3究竟做了什么。

据泄露的测试数据显示,Gemini 3在MATH、Codeforces、GPQA等硬核基准上领先GPT-4o超过15个百分点;
在长达100万token的上下文任务中,信息召回准确率高达92%,而GPT-4o仅为78%;
更可怕的是,其多模态推理能力实现了“跨模态因果建模”——不仅能看图说话,还能推断图像背后的物理过程(例如从一段水流视频预测水压变化)。

技术层面,谷歌团队在预训练阶段引入了“动态课程学习”(Dynamic Curriculum Learning),让模型根据自身能力动态选择训练数据难度;
同时采用“分层数据蒸馏”,将高质量人类反馈数据与海量网络数据分层混合,避免模型被低质噪声淹没。

此外,Gemini 3的训练系统据说使用了超过50,000颗TPU v5芯片,配合新型3D晶圆级互连技术,将通信延迟降低到纳秒级。这种软硬一体的极致优化,是OpenAI在依赖第三方GPU(如NVIDIA H100)的条件下难以复制的。难怪奥特曼会感叹:“他们不仅跑得快,还重建了跑道。”



OpenAI的“技术债”正在集中爆发  

其实,OpenAI的困境并非一日之寒。从GPT-3开始,公司就采取了“快速迭代、产品先行”的策略,将大量资源投入到API商业化和应用层开发(如ChatGPT、DALL·E、Sora),而对底层训练基础设施的投入相对滞后。

结果就是,当模型规模突破万亿参数后,旧有的训练框架开始频繁崩溃。一位前OpenAI工程师曾匿名透露:“我们的数据管道像一堆积木,每次加新功能都得小心翼翼,生怕塌了。”而在GPT-5项目中,团队试图引入更复杂的稀疏激活机制,却因缺乏统一的训练监控工具,导致多组实验结果无法复现。

反观谷歌,凭借多年搜索和广告业务积累的海量高质量数据,以及自研TPU生态,构建了一套高度自动化的AI工厂。这种“基建优势”在AI竞赛进入深水区后,逐渐转化为难以逾越的鸿沟。如今,Shallotpeat项目某种程度上是在为过去的“技术债”还账——但这笔账,可能要用时间和市场份额来偿还。



超级智能不是科幻,而是OpenAI的“诺亚方舟”  

奥特曼反复强调的“超级智能”,绝非空洞口号。

根据OpenAI 2024年发布的《安全超级智能路线图》,其目标是在2027年前构建一个能自主进行科学发现的AI系统。这意味着AI不仅能写论文,还能提出可验证的物理假说;不仅能编程,还能发明新算法。

为此,OpenAI已在内部组建“AGI Core”团队,专门研究元学习(meta-learning)、神经符号融合和跨任务泛化。

Shallotpeat很可能就是这个体系中的“感知与学习引擎”——它需要从混乱数据中提取世界模型,为上层的推理和规划模块提供知识基础。如果这一路径成功,OpenAI将跳过“模型军备竞赛”,直接进入“智能生态竞争”阶段。

届时,谁拥有第一个能自我改进的超级智能,谁就掌握了未来十年的科技主权。这或许解释了为何奥特曼愿意忍受短期股价波动和市场份额下滑——在他看来,眼前的Gemini 3领先只是“战术胜利”,而超级智能才是“战略制高点”。



对开发者和创业者意味着什么?  

如果你是AI开发者或创业者,这场巨头博弈将直接影响你的技术选型和产品方向。

首先,短期内Gemini 3的API(预计2026年初开放)可能提供更强大的多模态和长上下文能力,适合构建复杂企业应用;而OpenAI的GPT-5可能因预训练问题延迟发布,或性能不及预期。

其次,OpenAI可能会加速开放Sora和Shallotpeat的早期测试权限,以吸引开发者生态“共渡难关”。建议密切关注其Developer Platform的更新。

更重要的是,整个行业将加速向“模块化AI技能”演进——就像你提到的“知识乐高”理念,未来应用层创新将更多依赖组合不同AI原子能力(如“读心红包”式的情感计算+内容生成),而非单纯调用大模型API。因此,构建自己的微调数据集、开发领域适配器(adapter),比盲目追逐最新模型更重要。

毕竟,当巨头在“超级智能”层面厮杀时,中小企业的机会在于“超级应用”。



结语:AI竞赛才刚刚进入第二幕  

很多人以为GPT-5发布就代表AI终局已定,殊不知这仅仅是序章。谷歌用Gemini 3证明,预训练仍是核心战场;OpenAI以Shallotpeat回应,表明其不愿在基础层认输。

而奥特曼那句“我们必须穿过短期竞争压力的迷雾,紧盯超级智能”更像是对整个行业的宣言:真正的AI革命,不是让机器更像人,而是让智能本身实现指数级进化。在这场没有终点的赛跑中,今天的领先者可能是明天的陪跑者,而今天的补丁模型Shallotpeat,或许就是明日重塑世界的种子。



极客一语道破:

TPU是训练之王,谷歌又有大量的网络带宽,这是nVidia解决方案所没有的。它们的每芯片利用率也比NVDA解决方案高得多。

如果谷歌以合理的价格大规模商用这些TPU,英伟达的主导地位将结束,价格战将开始,计算将成为一种商品。那可是大手笔。

英伟达的“一家独大”不会永远持续下去,AI芯片市场很快要分家了!

救援来了
软银救援OpenAI:投资30亿为其打造专门模块化超算中心 
软银其实和英伟达和OpenAI是一条船上蚂蚱,现在他们才开始自建超算中心,OpenAI之前是依靠微软的超算中心提供算力,但是最近两家分离,其实OpenAI是被微软绑定英伟达GPU的战略害了,至少是被拖延了自身能亲自干预超算节点优化的余地,如今依靠软银的新投资,总算走上了类似谷歌全栈路线!这会不会成为压垮英伟达股价的最后一个稻草,上次是DeepSeek时刻,这次是谷歌全栈时刻!

一切已迟:Game Over
怪不得, Google DeepMind 的资深研究科学家Denny Zhou(周鼎)发推文:Game Over

他曾在Google Brain中创建了Reasoning团队(现在是Google DeepMind的Gemini团队的一部分),等着美股周一英伟达崩盘吧!