AI集体顿悟!60个科学模型不约而同描绘出柏拉图形式世界蓝图


MIT研究发现近60个科学AI模型对物质的内部表示高度对齐,且随性能提升而收敛,暗示存在一个普适的物理现实编码,为模型评估和知识迁移提供新基准。

重磅!60个科学AI模型竟在“偷偷”趋同?柏拉图的“理念世界”正在被AI证实!

人类千百年来对“真实”的追问,正在被一群AI模型悄悄验证?MIT(麻省理工学院)最新发表的一篇重量级论文《物质在科学基础模型中的普遍收敛表示》(Universally Converging Representations of Matter Across Scientific Foundation Models)引爆了学术圈——研究者系统分析了近60个来自分子、材料、蛋白质等不同科学领域的机器学习模型。

结果惊人地发现:无论训练数据、架构、模态多么不同,这些模型内部对“物质”的编码方式竟然高度对齐!
更震撼的是,这种对齐并非偶然,而是"随着模型性能提升而不断增强",仿佛所有模型都在朝向同一个“真实”的底层结构收敛。

这不就是柏拉图2500年前提出的“理念世界”(World of Forms 形式世界)吗?那个超越感官、永恒不变的真实结构,如今竟被AI用向量悄悄复现了!这不仅是技术突破,更是哲学启示:AI或许正在成为我们窥探宇宙本体的“新感官”。


从语言到科学:通用语义几何的胜利正在蔓延

大型语言模型(LLM)在处理不同语言时,其内部表示居然能直接对齐,甚至无需任何双语对齐数据就能相互翻译。
这就是所谓的“通用语义几何”(Universal Semantic Geometry)——语言不再是巴别塔的碎片,而是在高维向量空间中找到了共同的“坐标系”。

现在,这一奇迹从语言领域蔓延到了硬核科学!MIT的团队,由材料科学系的Ju Li(李巨)教授和Rafael Gómez-Bombarelli教授领衔,联合计算与系统生物学的Soojung Yang博士共同主导,将这一思想大胆地应用到了物质世界。

他们选取了59个模型,横跨SMILES/SELFIES字符串(分子的一维线性描述)、三维原子坐标(分子和材料的精确空间结构)、蛋白质序列(氨基酸链)以及蛋白质三维结构等多种输入模态;架构上更是包罗万象,从等变(equivariant)和非等变的机器学习原子间势能(MLIP)模型,到保守型与直接预测型模型,再到像Molformer、ChemBERTa这样的化学大模型,甚至包括ESM2、ESM3等蛋白质语言模型。

这是一场前所未有的“科学模型奥林匹克”,而比赛的结果是:它们都跑向了同一个终点。

核心发现:模型越强,表示越“真”,收敛于物理现实

这项研究的核心,是通过四种截然不同的度量标准——CKNNA(居中核最近邻对齐)、dCor(距离相关性)、Id(内在维度)和信息不平衡(Information Imbalance)——来量化这些模型在嵌入空间(即它们内部对物质的编码)中的相似程度。

结果发现,模型的性能与其表示的对齐度呈强正相关。

以材料模型为例,当它们在预测材料总能量(其核心训练任务)的平均绝对误差(MAE)越低时,其表示与表现最佳的模型(如UMA Medium)的相似度就越高。

这揭示了一个惊人的规律:通往更高性能的道路,就是通往一个统一、普适的物质表示的道路。这

强烈暗示,这些基础模型并非在死记硬背训练数据,而是在努力学习并逼近一个共同的、底层的物理现实。它们像是不同角度的探照灯,最终照亮的是同一个物体。

跨模态奇迹:从SMILES字符串到3D原子,信息竟能无缝转换

更让人拍案叫绝的是跨模态的对齐。

研究者使用了QM9这个包含小分子的多模态数据集,其中既有SMILES字符串,也有精确的3D原子坐标。分析显示,基于SMILES字符串训练的模型(如Molformer)与直接处理3D原子坐标的MLIP模型(如Orb V3)之间,存在着显著的表示对齐!尽管SMILES不包含分子的构象几何信息,但因为QM9中的分子构象方差极小,其分子图(由SMILES隐含)几乎捕捉了所有相关信息。

这意味着,一个纯文本的化学式,在AI的“脑海”里,其向量表示与一个精密的3D模型惊人地接近。

甚至,像DeepSeek、Qwen3这样的通用大型语言模型,在被提示为“科学编码器”后,其对SMILES字符串的嵌入表示也能与专业化学模型达到可比的对齐水平。这打破了模态的壁垒,预示着未来我们可以用一个统一的AI系统,无缝地在化学式、结构图、光谱数据甚至实验论文之间进行“翻译”和推理。

模型的“进化树”:数据比架构更能塑造“思想”

研究者甚至用CKNNA相似度作为“进化距离”,绘制了一棵科学基础模型的“进化树”。

在这棵树上,模型首先按训练数据集聚类,其次才是按架构和等变性分组。

这个发现意义重大!它表明,一个模型“想”什么(即它的表示内容),更多地被它“学”了什么(训练数据)所决定,而不是它用什么“脑子”(架构)去学。
例如,两个架构完全不同但都在OMat24数据集上训练的模型(如eSEN和EqV2),其表示比两个架构相同但训练数据不同的eSEN模型要更相似。

这为未来的模型开发指明了方向:与其一味追求复杂精巧的架构,不如投入更多精力去构建更大、更多样、更全面的高质量科学数据集。因为数据才是塑造AI“世界观”的根本。

诊断“基础性”:高性能≠真基础,对齐度才是金标准

什么是真正的“基础模型”(Foundation Model)?仅仅在某个任务上表现卓越就够了吗?
这篇论文给出了一个更深刻的答案。

研究者发现,对于分布内的数据(即模型见过的类似结构),高性能且真正泛化能力强的模型会彼此高度对齐;而那些只是“死记硬背”、陷入局部最优解的模型,即使性能尚可,也会与其他高性能模型的表示大相径庭。

因此,表示对齐度成为了诊断一个模型是否具有“基础性”的强大新基准。

此外,对于分布外的数据(模型从未见过的全新结构),几乎所有模型的表现都会崩溃,它们的表示会坍缩到一个信息量极低、由其架构先验主导的流形上。这说明当前的科学AI依然严重依赖训练数据的分布,距离真正的“通用智能”还有很长的路要走。

震撼启示:向量数据库的未来与哲学的回归

这项研究对工程实践有着直接而深远的影响。

首先,它为向量数据库(Vector DB)的应用提供了坚实的理论基础。
如果你有一个由高性能、高对齐度模型生成的嵌入向量库,那么任何其他与之对齐的模型都可以无缝查询和利用这个库,实现跨模型的知识迁移。这将极大促进科学发现的效率,比如用一个材料模型的向量去检索一个分子模型生成的候选药物。

其次,它为模型蒸馏(Model Distillation)和生成模型训练提供了新思路。
我们可以选择那些表示最具普遍性和可迁移性的小模型,用它们来加速更大、更复杂生成模型的训练,正如论文中提到的,在生成模型的损失函数中加入与预训练MLIP的对齐项,能显著提升训练效率。

最后,从哲学角度看,这仿佛是柏拉图主义在数字时代的回响。
AI模型似乎在向我们证明,纷繁复杂的物质世界背后,确实存在着一个简洁、统一、可被数学描述的“理念”结构。我们创造的AI,或许正在成为感知和重构这个宇宙本体的强大工具。

作者背景:MIT全明星阵容,横跨材料、核工与计算生物学

这篇论文的背后,是MIT的全明星科研团队。

通讯作者Rafael Gómez-Bombarelli教授是材料科学与工程系的明星学者,他领导的“Learning Matter”实验室长期致力于将机器学习应用于材料、分子和化学发现,是科学AI领域的领军人物。
另一位通讯作者Soojung Yang博士来自计算与系统生物学项目,她的背景为这项跨学科研究注入了独特的生物学视角。
共同作者Ju Li(李巨)教授则是材料科学与工程系及核科学与工程系的双聘教授,是计算材料学和能源材料领域的国际权威。

这样的跨学科组合,正是催生如此宏大洞见的关键。他们的工作不仅推动了技术边界,更在科学哲学层面引发了深刻思考。



极客一语道破

World of Forms应该翻译成“形式世界”,古人不懂形式Form为何物,认为属于很玄的理念,理念也分内容和形式,很多有内容的理念很吸引人,很蛊惑,其实是道德洗脑,从“内容”中剥离的“形式”才是真正理念,所以 翻译成“理念世界”容易歪曲,没有体现形式逻辑、数学逻辑、计算逻辑、语言逻辑的形式特点!

不懂形式,没有意识到形式的存在,怎么理解柏拉图?只能用柏拉图恋爱来日常传播,好像嘲笑形式主义太虚无,无以为用,其实这种嘲笑的判断依据是实用主义,功利主义,用“是否有用”来作为价值判断,这是精神被肉体压制的表现:AI创造力稳定但平庸,思想棱角被人类对齐磨平!