Meta前首席AI科学家杨立昆(Yann LeCun)创立新公司AMI,融资超10亿美元打造能理解物理世界的AI世界模型,剑指OpenAI、Anthropic等LLM巨头,押注人类级智能需要超越语言模型的全新架构。
杨立昆曾经是一家市值万亿的科技巨头的首席AI科学家,手握顶级资源,团队人才济济,老板马克·扎克伯格对你言听计从。可惜方向与大多数走的不同,别人向南,你一路向北。这时候你会做什么?大多数人会选择躺平,毕竟这简直是打工人的终极梦想。但杨立昆(Yann LeCun)偏不。
他在2025年11月做出了一个让所有人下巴掉地上的决定:辞职创业。而且不是小打小闹,是直接拉到了超过10亿美元的融资,估值35亿美元,成立了一家叫AMI(发音类似法语里的"朋友")的公司。这操作就像是在米其林三星餐厅当主厨干得好好的,突然说要出去摆地摊,而且摆地摊的启动资金比原来餐厅的年营业额还高。
杨立昆这么做的理由很简单:他是搞图形出身,不习惯文字字符,受够了大语言模型(Large Language Models,简称LLMs)的"字符符号的忽悠",他认为靠堆参数、堆算力让ChatGPT们变聪明是一条死胡同,真正的智能需要让AI理解物理世界这个大图景,而不是只会背课文上的符号。
杨立昆可不是什么无名小卒。他在2018年拿了图灵奖,这可是计算机界的诺贝尔奖。他发明了卷积神经网络(Convolutional Neural Networks,CNN),没有他的这项图形视觉技术,现在的人脸识别、自动驾驶视觉系统都得原地瘫痪。
LLM的狂欢与隐忧:为什么ChatGPT不是终点
要说清楚杨立昆为什么要造反,得先聊聊现在AI界的当红炸子鸡——大语言模型。
ChatGPT、Claude、Gemini这些产品已经火遍全球,它们能写诗、能写代码、能陪你聊天解闷,看起来无所不能。OpenAI靠ChatGPT一度成为全球估值最高的初创公司,Anthropic拿着亚马逊的几十亿美元紧追不舍,Google把Gemini塞进各种产品里,就连杨立昆的老东家Meta也推出了Llama系列开源模型。整个行业都在疯狂烧钱训练更大的模型,买更多的GPU,堆更多的数据。
逻辑很简单:只要模型够大、数据够多,智能就会像变魔术一样涌现出来。这种思路有个高大上的名字叫"规模法则"(Scaling Laws),意思是只要一直scale up(扩大规模),性能就会一直提升。
但杨立昆看不下去了。他直言不讳地说:"认为靠扩展LLM的能力就能达到人类级智能,这完全是胡说八道。"这话从一个AI泰斗嘴里说出来,相当于在AI界的狂欢节上泼了一盆冰水。他的理由很扎实。
他的理由是利用人们的一个普遍常识:人类的大部分推理能力根植于物理世界,而不是语言。其实泰斗自己可能也无法确证这个常识是否科学,因为这是哲学范畴,从柏拉图到亚里斯多德,到现在维特根斯坦的观点可不是这样,维特根斯坦认为:语言就是人类思想边界,无法用语言表达的世界就不存在,你以为我们看到的物理世界你能全理解吗?当你以为你理解物理世界时,你就掉入圈套。
有网友犀利吐槽:"这是最后一个十亿了,忘掉那已经投入AI的万亿资金吧,这次它真的能理解物理世界了。"这种讽刺背后是对AI行业"狼来了"式承诺的疲惫。
确实,过去几年我们听了太多"这次不一样"的故事,每一轮融资都伴随着更宏大的宣言。但杨立昆的回应也很直接:那些万亿资金都流向了基于语言建模的主流AI研究,而他的想法专注于完全不同的东西。这不是在LLM的赛道上多加一个选手,而是另开一条全新的赛道。
世界模型的野心:让AI拥有"想象力"
那么,杨立昆心中的正确答案是什么?
答案是"世界模型"(World Models)。这个概念听起来很玄,但其实很好理解。人类大脑里有一个对世界的内部模拟器。当你闭上眼睛想象把一个球扔出去,你能预测球会怎么飞、落在哪里。当你计划从家开车去公司,你脑子里会预演一遍路线,想象哪个路口会堵车,哪个地方可以抄近道。这种能力就是世界模型在起作用。它不是语言,而是一种对物理因果关系的深层理解。AMI要造的AI就是这种类型:它能理解世界,拥有持久记忆,能推理和规划,而且是可控和安全的。
有网友用一个绝妙的比喻解释了这一点:你必须想象一个世界模型可以模拟真实世界,仅此一点就对任何形式的研究作为工具有着疯狂的潜力,同时也是人类智能所做的一个缺失的关键部分。是的,你也有一个内在的世界模型,例如当你闭上眼睛想象扔一个球时,你不仅仅是在想象一个静态图像,你预测弧线,预期它落在哪里,感受重量离开你的手。这就是你的世界观模型在工作。你花了一辈子吸收物理如何运作、人们的行为方式、日常互动的因果逻辑,你建立了一个内部模拟器,如此准确以至于你可以在发生之前排练对话,在尚未进入的房间心里导航等等。
AMI具体要怎么做?他们要从制造业、生物医学、机器人等行业入手。这些行业有个共同特点:它们有大量的数据,但不是文本数据,而是传感器数据、物理交互数据、工程设计数据。
举个例子,AMI可以为一个航空发动机建立一个真实的世界模型。这个模型不是简单的三维图纸,而是一个能模拟发动机在各种工况下如何运转的动态系统。它可以预测如果某个部件磨损了,发动机性能会如何下降;可以模拟不同的设计改动对燃油效率和排放的影响;可以在虚拟环境里测试极端情况,比如鸟撞或者极端温度,而不用真的去撞一只鸟或者把发动机扔进烤箱。这对制造商来说价值巨大,意味着可以大幅减少物理原型测试的成本和时间,优化设计,提高可靠性。
杨立昆说得很直白:这种应用方向在Meta是做不了的,因为Meta的核心业务是社交媒体和广告,卖企业级AI解决方案不是它的基因。所以他必须出来单干,才能把这种技术潜力完全释放出来。
豪华股东天团:为什么大佬们愿意押注
说到AMI的融资,这阵容简直亮瞎眼。领投方包括Cathay Innovation、Greycroft、Hiro Capital、HV Capital,还有贝佐斯探险(Bezos Expeditions)——没错,就是亚马逊创始人杰夫·贝佐斯的投资公司。其他知名 backers(支持者)包括马克·库班(Mark Cuban,NBA独行侠队前老板,亿万富翁投资人)、前Google CEO埃里克·施密特(Eric Schmidt)、以及法国电信大亨泽维尔·尼尔(Xavier Niel)。这帮人可能不是人傻钱多的冤大头,他们投钱是因为看到了杨立昆愿景中的巨大潜力,也可能是因为他们也觉得LLM的路线有点走到头了,需要新的突破口。更重要是现在AI太热了,钱多了没有地方去,不如押注一个顶尖异类科学家!
这些投资人的背景也很有趣。
施密特在Google干了多年CEO,亲眼见证了AI从学术玩具变成产业支柱的全过程,他对技术路线的判断有极强的参考价值。
贝佐斯不用说了,他投项目的眼光在科技界是传奇级别的。
马克·库班虽然以投资体育和娱乐闻名,但近年来在AI和深度学习领域也有不少布局。
尼尔是法国科技生态系统的关键人物,他的参与意味着AMI在巴黎的总部将得到强大的本土支持。
这么多大佬愿意把真金白银砸进一个还没产品的初创公司,只能说明一件事:他们下注杨立昆的技术判断,相信世界模型是AI的下一个范式转移。这不是在投一个更好的ChatGPT,而是在投一个完全不同的物种,就像从功能手机到智能手机的跨越,或者从PC到移动设备的迁移。
有网友调侃:"给我15万美元,我就能证明他是错的。"
也许AI泡沫破灭首先从这里开始!
出走Meta的真相:理想与商业的博弈
很多人可能会问:杨立昆在Meta干得好好的,为什么要走?这里面的故事比表面看起来复杂。杨立昆在Meta创办了FAIR实验室,这个实验室的目标是进行基础AI研究,探索AI的边界。他在这个平台上做了多年的世界模型研究,比如联合嵌入预测架构(Joint-Embedding Predictive Architecture,简称JEPA)。JEPA是一种不同于LLM的架构,它试图通过预测世界的表征来学习世界的结构,而不是通过预测下一个词来学习语言的模式。但随着LLM的爆发,Meta的战略发生了转向。公司必须全力追赶OpenAI和Google在LLM领域的步伐,投入海量资源训练Llama系列模型,做和竞争对手一样的事情。
杨立昆对此感到格格不入。他说:"Meta的战略重新定位,让它必须基本上追赶行业在LLM上的步伐,做和其他LLM公司一样的事情,这不是我的兴趣所在。"这话听起来有点傲娇,但背后是深刻的理念冲突。杨立昆相信世界模型是通往人类级智能的正道,而LLM只是条岔路。
但在Meta,资源必须优先投入到能直接带来用户增长和广告收入的项目上,LLM显然比世界模型更符合这个标准。世界模型的商业应用是面向企业销售解决方案,这和Meta to C(面向消费者)的业务模式根本不搭。所以杨立昆在
2025年11月去找了扎克伯格,告诉他:"我在外面做可以更快、更便宜、更好。我可以和其他公司分摊开发成本。"
扎克伯格的回应是清醒后的成熟:"OK,我们可以合作。"
有网友一针见血地指出:他在Meta花了多少年追求这个?但 yeah,这最后一个十亿才是关键。
顶尖科学家以一人之力误导了顶尖企业,这种事情在资本主义发展史很常见,不要以为最有钱+最聪明的集中力量办大事,也可能南辕北辙!
那么扎克伯格当初为何聘请杨立昆?因为元宇宙战略,名称也从Facebook改为Meta,现在AI领域Meta已经远远落后,只剩余一个故事讲:AI帮助Meta广告赢利翻翻!
全明星创始团队:老战友与新血液
AMI的创始团队堪称全明星阵容。除了杨立昆本人,还有几位他在Meta的老战友。
迈克尔·拉巴特(Michael Rabbat)是Meta前研究科学总监,在分布式系统和机器学习系统方面有深厚积累。
劳伦特·索利(Laurent Solly)是Meta前欧洲副总裁,负责过Meta在欧洲的战略和运营,对国际业务拓展经验丰富。
帕斯卡尔·冯(Pascale Fung)是Meta前AI研究高级总监,在自然语言处理和对话系统领域是顶尖专家。
这几位都是在Meta身居高位的技术大牛,愿意放弃大厂的稳定职位和高薪,跟着杨立昆出来冒险,说明他们对世界模型的愿景有极强的信念。
团队还有两位关键新成员。
亚历山大·勒布伦(Alexandre LeBrun)担任CEO,他之前是AI医疗初创公司Nabla的CEO。Nabla做的是用AI辅助医生诊疗,勒布伦在企业级AI产品的商业化方面有实战经验,这正是AMI从研究走向产品最需要的能力。
首席科学官是谢赛宁(Saining Xie),他之前是Google DeepMind的研究员。DeepMind是AI研究的重镇,AlphaGo、AlphaFold这些突破性成果都出自那里。谢赛宁的加入带来了DeepMind在强化学习、世界模型方面的研究经验。
这个团队组合很有意思:有学术泰斗(杨立昆)、有工程大牛(拉巴特)、有商业老手(勒布伦、索利)、有研究新锐(谢赛宁、冯)。他们要从Day One(第一天)就全球化运作,在巴黎、蒙特利尔、新加坡、纽约设立办公室。杨立昆本人会继续在纽约大学任教,同时领导AMI。
技术路线的对决:JEPA vs Transformer
要理解AMI的技术路线,得稍微深入一点技术细节,但我会尽量用通俗的方式解释。现在的大语言模型,比如ChatGPT背后的GPT系列,基本都是基于Transformer架构。Transformer的核心机制是"自注意力"(Self-Attention),它让模型在处理一个词的时候能同时考虑句子里的其他所有词,从而捕捉长距离的依赖关系。这种架构在处理序列数据(比如文本)上非常强大,但它有个根本局限:它是为语言设计的,不是为世界设计的。
有网友提到:JEPA,也就是他的初创公司目前专注的世界模型,也是基于transformer的,虽然transformer的用法不同。我完全同意超越自然语言处理进行多样化。也许他甚至可以发明一种超越transformer的新架构来创建真正的世界模型,而LLM可以成为更大AI大脑的语言处理部分。这种看法很有代表性:JEPA不是完全抛弃现有技术,而是在现有技术基础上做创新。
杨立昆在Meta研发的JEPA走的是完全不同的路子。
JEPA全称是Joint-Embedding Predictive Architecture,中文可以叫"联合嵌入预测架构"。这个名字很拗口,但核心思想其实直观。JEPA试图学习世界的"表征"(representation),也就是对世界状态的压缩描述,然后基于这个表征来预测未来的状态。它不是预测下一个词是什么,而是预测如果采取了某个动作,世界会变成什么样。比如,在自动驾驶场景里,JEPA模型可以观察当前的路况,然后在"脑子里"想象如果方向盘向左打一点,车辆的位置会如何变化,周围的车会怎么反应。这种预测是在一个抽象的表征空间里进行的,而不是在原始的像素空间里,所以计算效率更高,也更适合进行规划。
有网友进一步解释:JEPA使用物理和因果关系的模型来预测系统的状态。LLM使用语言模式来预测系统的状态。
这是完全不同的方法。这种对比很清晰:LLM是在文本的统计规律里找模式,JEPA是在物理规律里找因果。
一个是背课文,一个是做实验,本质上是两种不同的学习方式。
JEPA的另一个关键特点是它是"基于世界模型"的。这意味着AI系统内部有一个对世界的模拟器,它可以在模拟器里"想象"不同的行动方案,评估哪个方案会带来最好的结果,然后选择最优的行动。这和人类做决策的方式很像:你不会随机乱走找到目的地,而是在脑子里规划路线。
杨立昆认为,这种能力——在想象中进行推理和规划——是实现人类级智能的关键。LLM没有这种能力,它们只是根据训练数据里的模式生成文本,没有真正的目标导向的推理。AMI要做的就是把JEPA这种架构商业化,让它能在真实的工业场景中解决实际问题,而不仅仅是在学术论文里跑分。
应用场景的蓝图:从飞机引擎到制药
杨立昆对AMI的应用场景有清晰的规划。他提到了制造业、生物医学、机器人这几个方向。这些领域有个共同点:它们涉及复杂的物理系统,有大量的多模态数据(视频、传感器读数、物理测量等),而且决策失误的代价很高。在这些领域,单纯靠LLM的文本推理是不够的,需要真正理解物理因果关系的AI。
以制造业为例,现代飞机引擎有数万个零件,在极端温度、压力、振动环境下工作。设计一个更省油、更环保、更可靠的引擎是个极其复杂的优化问题。传统的做法是做大量的物理原型测试,在风洞里吹,在实际飞行中测,周期长、成本高。如果AMI能为引擎建立一个精确的世界模型,工程师就可以在虚拟环境里测试各种设计方案,快速迭代,找到最优解。这个模型不仅能预测正常工况下的表现,还能模拟极端情况,比如冰雹撞击、飞鸟吸入、部件疲劳断裂,帮助设计更安全的系统。
生物医学领域同样充满机会。药物研发是个漫长而昂贵的过程,平均需要十年以上、数十亿美元才能推出一种新药。其中一个瓶颈是理解生物分子如何在体内相互作用,如何在细胞层面产生效果。这本质上是一个物理化学过程,涉及复杂的时空动态。AMI的世界模型可以用来模拟这些过程,预测一个新分子是否会和靶点蛋白结合,是否会有毒副作用,从而大幅加速药物发现。机器人领域更是世界模型的天然应用场景。现在的机器人大多很"笨",只能在高度结构化的环境里执行预设的动作。要让机器人像人类一样在复杂环境里灵活操作,它必须理解物体的物理属性,预测动作的后果,进行实时规划。世界模型正是赋予机器人这种能力的关键技术。
有网友提到:英伟达 cosmos不也是做这个的吗?而且它是开源模型?相信我,他们投入的不止10亿。
行业格局的重塑:AMI挑战科技巨头
AMI的成立对整个AI行业格局有深远影响。目前AI领域的主导者是几家科技巨头和明星初创公司:OpenAI、Anthropic、Google DeepMind、Meta、xAI等。这些公司无一例外都在大力投入LLM,竞争谁有更大的模型、更多的算力、更长的上下文窗口。杨立昆的AMI突然跳出来说:"你们这条路走不通,真正的智能在另一条路上。"这相当于在一场马拉松比赛中,所有选手都在一条赛道上狂奔,突然有个选手跳出来说"这条赛道到不了终点",然后另开了一条新赛道。
这种挑战不是第一次发生。在深度学习的历史上,曾经有过几次重大的范式转移。
十年前,大多数人认为计算机视觉要靠手工设计的特征工程,是杨立昆等人推动的CNN证明了端到端学习的威力。
五年前,大多数人认为AI玩不了围棋这种复杂游戏,是DeepMind的AlphaGo颠覆了认知。
现在,杨立昆又站在了一个可能的历史转折点上。如果世界模型真的如他所说是通往人类级智能的正道,那么现在All in LLM的公司可能会发现自己押错了宝,需要痛苦地转型。反之,如果世界模型迟迟无法取得突破,而LLM继续通过规模扩展变得更强大,那么AMI可能会成为AI史上一个昂贵的弯路。
有网友对这种"押注不同路线"的做法表示支持:我受够了这些。我向你保证,大型AI实验室投资的不仅仅是"更多算力",而且已经持续一段时间了。拜托,你真的认为他们傻到把所有鸡蛋都放在LLM篮子里吗?这种反驳也有道理:OpenAI和Google也不是傻子,他们也在做多模态、在做机器人、在做各种探索。但杨立昆的赌注在于,他认为世界模型不是LLM的一个功能模块,而是完全不同的底层架构,需要从头开始建设,而不是在Transformer上修修补补。
技术哲学的分歧:语言 vs 世界
杨立昆和LLM阵营的分歧,本质上是关于智能本质的哲学分歧。
LLM阵营认为,语言是人类智能的巅峰,掌握了语言就掌握了智能的核心。毕竟,人类的知识大多以文本形式记录,人类的推理往往通过语言进行,人类的社会互动很大程度上依赖语言。如果AI能完美掌握语言,就能从文本中汲取人类积累的所有知识,就能通过对话与人类协作,就能展现出智能的所有外在表现。这种观点有其合理性,而且LLM的成功确实证明了语言能力的可扩展性。
但杨立昆认为这种观点是"本末倒置"。语言是人类智能的产物,而不是源头。人类之所以能发展出复杂的语言,是因为我们先有了对世界的深刻理解,有了因果推理的能力,有了社会互动的经验。一个从来没有接触过物理世界、没有行动能力的AI,仅仅通过阅读文本就能理解"重力"的真正含义吗?杨立昆的答案是:不能。它只能学到关于重力的"二手描述",而不是重力本身。就像一个人可以通过读书学会游泳的理论知识,但如果不下水实践,永远成不了真正的游泳健将。AMI的世界模型就是要让AI"下水",让它通过观察和交互建立对世界的直接理解,而不是只通过文本学习二手知识。
有网友对这种观点表示怀疑:他不相信人们会在家里想要电脑。
莱纳斯·鲍林认为DNA是三螺旋。威廉·汤姆森认为物理学没有什么新东西可发现了。托马斯·爱迪生确信直流电才是正道。爱因斯坦拒绝量子纠缠。他们都是相关人物,在科学上做出了开创性的进步,但在某个时刻他们都因为自尊心而失败,原因很简单,他们都是人。
这种分歧也反映在训练方式上。
LLM的训练主要是"被动"的:给模型看大量的文本,让它预测下一个词。模型不需要真的理解文本描述的场景,只需要学会语言的模式。
世界模型的训练则是"主动"的:模型需要观察世界的变化,预测行动的后果,通过和环境的交互来学习。
这种学习方式更接近人类和动物的学习方式。婴儿不是通过读教科书学会走路的,而是通过不断尝试、摔倒、调整,逐渐建立起对物理世界的直觉。杨立昆认为,AI也需要经历类似的"童年",才能真正成长出智能。
资金与估值背后的信心
AMI融资超过10亿美元,估值35亿美元,这在当前AI投资热潮中是什么水平?
做个对比:OpenAI在2019年从微软拿到10亿美元投资时,已经推出了GPT-2,证明了Transformer架构的潜力,但还没有ChatGPT这种现象级产品。
Anthropic在2022年成立时,从Google拿了数亿美元,团队是从OpenAI分裂出来的核心研究员。
AMI在成立之初就拿到这个体量的资金,说明投资人对杨立昆的个人品牌和技术愿景有极强的信心。
但这也意味着巨大的压力。35亿美元的估值意味着AMI必须在未来几年内展现出实质性的技术突破和商业进展,否则下一轮融资会非常困难。AI领域的竞争是残酷的,技术迭代速度快,人才流动频繁,今天的明星可能明天就被超越。杨立昆和他的团队必须在保持学术严谨性的同时,快速推进产品化,找到第一批愿意付费的企业客户,建立技术护城河。这不是一个可以慢慢来的学术项目,而是一个高风险的商业冒险。
有网友对这种高估值表示担忧:TechCrunch警告说,高价格只是因为杨立昆的名声才合理。
有些人认为当前的LLM仍然可以在不改变架构的情况下继续发展。更保守的出版物提到模拟人类常识的技术困难。这种质疑很现实:名气不能当饭吃,最终还是要看产品说话。10亿美元买的是一个可能性,而不是一个确定性。
资金的用途也很关键。AMI说要在巴黎、蒙特利尔、新加坡、纽约设立办公室,这意味着要组建全球化的研发团队,吸引顶尖的AI研究员和工程师。AI人才现在是全世界最稀缺的资源之一,OpenAI、Google、Meta都在疯狂抢人,AMI作为初创公司,必须用股权、愿景、研究自由度来吸引人才。此外,训练世界模型需要大量的计算资源。虽然JEPA可能比LLM更高效,但建立精确的物理世界模拟仍然需要强大的算力支持。AMI需要建立自己的计算基础设施,或者与云服务商合作,这都需要烧钱。
有网友对算力问题提出了尖锐的质疑:考虑到未来5年(至少)的所有算力生产已经被其他巨头买光了,一个2026年成立的AI初创公司有多大可能成功?这种担忧很实在:巧妇难为无米之炊,没有GPU,再好的算法也跑不起来。
但也有网友反驳:你可以去gpulist.ai租集群,初创公司有足够的算力可用。
技术落地的挑战:从实验室到工厂
虽然愿景很美好,但AMI要把世界模型从研究原型变成商业产品,面临的挑战是巨大的。
首先是技术成熟度问题。JEPA在Meta的实验室里已经研究了多年,但实验室里的演示和工业级的应用之间隔着巨大的鸿沟。实验室环境是可控的,数据是干净的,场景是简化的。真实的工厂环境充满了噪声、不确定性、边缘情况。一个能在模拟环境里完美预测引擎行为的模型,在真实世界里可能因为传感器误差、温度波动、机械磨损而失效。
其次是数据问题。世界模型需要大量的物理交互数据来学习。但工业数据往往是企业的核心机密,不愿意轻易分享。AMI如何说服制造企业开放数据?是采用联邦学习(在数据不出本地的情况下训练模型),还是建立严格的数据安全机制?此外,不同企业的数据格式、采集方式、质量标准各不相同,如何整合这些数据训练通用的世界模型,是个复杂的工程问题。
有网友提到了EBM(Energy-Based Models,基于能量的模型)的历史:有趣的事实:EBM目前还没有商业应用。他的团队还无法复制人们投入资金的任何用例。
这种质疑很尖锐:杨立昆之前推动的技术路线(EBM是JEPA的前身之一)还没有证明商业价值,为什么这次会不同?
但也有网友反驳:BADAS Open就是基于V-JEPA2构建的,这是一个令人印象深刻的事件预测模型,可以轻松通过降低碰撞风险来挽救人类生命,而且还可以在普通硬件上实时运行。我认为JEPA和他的其他架构方法确实有机会交付真正有用的产品。
这说明技术已经在某些场景下有了初步验证,关键是如何扩展到更广泛的商业应用。
第三是验证和信任问题。工业企业对AI系统的可靠性要求极高。如果一个推荐系统给用户推错了电影,损失很小;但如果一个世界模型预测错误,导致飞机引擎设计缺陷,后果可能是灾难性的。AMI必须建立严格的验证流程,证明其模型的预测在统计意义上是可靠的,在极端情况下是安全的。这可能需要与监管机构合作,建立新的AI安全标准。对于制药应用,还要面对FDA等药品监管机构的审批流程,这通常需要多年的临床试验数据。
第四是集成问题。制造企业有 legacy systems(遗留系统),有既定的 workflow(工作流程),引入新的AI系统需要与现有IT基础设施集成,需要培训员工使用,需要调整业务流程。这不是单纯的技术问题,而是变革管理问题。AMI不仅要提供技术,还要提供咨询服务,帮助客户完成数字化转型。这意味着AMI需要的不仅是AI研究员,还需要工业工程师、解决方案架构师、项目经理。
竞争格局中的差异化定位
在AI市场,AMI如何与现有玩家差异化?
首先,它不是另一个LLM公司。当所有人都在做ChatGPT的竞品时,AMI选择了一条完全不同的赛道。这既是风险也是机会:风险在于市场教育成本高,客户可能不理解世界模型是什么;机会在于如果路线正确,AMI可以建立先发优势,成为该领域的定义者。
与Meta相比,AMI的优势是专注和灵活。Meta必须把资源分配到LLM、VR/AR、社交媒体等多个方向,而AMI可以All in世界模型。与OpenAI和Anthropic相比,AMI的优势是杨立昆的个人品牌和学术权威,以及团队在企业级应用方面的经验。OpenAI和Anthropic主要面向消费者和开发者提供API和聊天产品,而AMI明确瞄准制造业、生物医学等垂直行业,提供深度定制的解决方案。
与Google DeepMind相比,AMI的优势是独立性和商业导向。DeepMind虽然是AI研究的重镇,但受限于Google的母公司和复杂的内部政治,其技术转化到产品的速度有时较慢。AMI作为初创公司,决策链条短,可以快速响应市场需求。与专门的工业AI公司相比,AMI的优势是底层技术的先进性。很多工业AI公司做的是传统的机器学习应用(预测性维护、质量控制等),而AMI要做的是新一代的、基于世界模型的通用AI系统,理论上可以处理更复杂的任务,适应更动态的环境。
有网友对这种差异化表示乐观:将AI与机器人技术 bridging the gap(弥合差距)是下一个合乎逻辑的飞跃,绝对是AI革命的下一个阶段。
这种看法代表了很多人对AI发展的预期:从聊天到行动,从数字到物理,这是必然的趋势。AMI正好站在这个趋势的前沿。
杨立昆的学术遗产与商业冒险
回顾杨立昆的职业生涯,这次创业是他从学术象牙塔走向商业战场的重大转折。他1980年代就开始研究神经网络,经历了AI的几次寒冬和复兴。他在贝尔实验室、AT&T、纽约大学、Meta工作过,但一直是研究者身份,以发表论文、培养人才、推动学科发展为主要目标。创办AMI意味着他要承担商业责任,要对投资人负责,要考虑营收和利润,要管理团队、搞定客户、应对竞争。这对于一个60多岁的学术泰斗来说,是个巨大的挑战。
但杨立昆似乎准备好了。他在采访中表现出的直率和自信,说明他对这个决定深思熟虑过。他说在Meta做世界模型"更快、更便宜、更好"在外面做,这话听起来有点讽刺Meta的效率,但也说明他对创业的风险有清醒认识。他知道外面做更难,但值得,因为可以摆脱大公司的束缚,可以与其他企业合作分摊成本,可以保持技术路线的纯粹性。
从学术遗产的角度看,如果AMI成功,杨立昆将不仅仅是CNN的发明者、深度学习的先驱,还将是世界模型商业化的奠基人。这将巩固他作为AI历史上最伟大人物之一的地位。如果AMI失败,他的学术声誉不会受损——他已经证明了太多东西——但会是一次昂贵的教训,证明从实验室到市场的距离比他想象的更远。无论如何,这种敢于在巅峰时期再出发的精神,值得尊敬。
有网友对这种"晚年创业"表示质疑:也许会是世界模型,但不会是他做的,可能再过10年他会被某个年轻人打败,然后他又转向说不对,我们现在需要第四维AI了。这种预测很残酷,但也不无道理。科技史充满了颠覆的故事,今天的巨头可能是明天的诺基亚。但杨立昆的回应可能是:那又怎样?科学就是在不断试错中前进的,即使最终被证明方向有误,这个探索过程本身也有价值。
世界模型能否兑现承诺
展望未来三到五年,AMI和世界模型的发展有几种可能的情景。乐观情景是,AMI成功开发出了工业级的世界模型,在航空、制药、机器人等领域取得了突破性的应用成果,证明了世界模型相比传统方法的显著优势,吸引了更多企业和研究者加入这个方向,形成良性循环,最终推动整个AI行业向世界模型范式转移。
中性情景是,AMI在技术上取得一定进展,但商业化比预期困难,世界模型在特定场景下有效,但泛化能力有限,无法成为通用的AI解决方案。公司可能需要在垂直领域深耕,成为特定行业的解决方案提供商,而不是改变AI格局的平台型公司。
悲观情景是,世界模型在技术上遇到难以克服的障碍,比如无法有效处理高维度的物理世界,或者计算成本过高无法实用化。同时,LLM通过持续改进(比如结合多模态能力、增强推理能力)解决了部分之前认为只有世界模型能解决的问题,证明LLM路线的潜力还没有耗尽。AMI可能面临资金枯竭、人才流失,最终被收购或关闭。
有网友对这种不确定性表示疲惫:
当AI行业专注于扩展规模时:不,LLM是死胡同,它只是预测下一个词,我们需要有真正智能的东西来实现AGI。
当AI行业专注于试验新架构时:不,你在浪费钱,那东西永远不会奏效。
这种左右为难的处境反映了AI社区的深层焦虑:我们不知道哪条路是对的,但我们必须选择一条路走。杨立昆选择了世界模型,这是他基于几十年研究做出的判断,但没有人能保证这是正确答案。