Extropic推出概率比特芯片与TRHML模拟器,凭借热力学采样原语有望在特定负载上大幅降低数据中心能耗,但规模化与软件生态仍需实测验证。
概率比特时代来临:可将数据中心能耗降千倍的新型芯片全面革命
威尔·奈特(Will Knight)在《WIRED》的报告像一枚重磅弹,让科技圈又嗅到一次“大变局”的味道——一家叫Extropic的新创公司,宣称他们做出的不是传统CPU也不是GPU,而是一种基于“热力学采样”的全新处理单元,简称TSU(热力学采样单元),其工作原理根本不同于我们熟悉的矩阵乘法与确定性比特运算,转而利用硅材料中电子的热涨落去建模概率与不确定性,从根本上为复杂系统(比如天气模拟或生成式AI)提供一种更“天然”的计算原语。
文章把这种颠覆性的想法拆成了层层要点,我把关键脉络拉长、拆成更生活化的段落,带你边听边想——这事儿,可能比你想象的更重要。
先说“芯片长什么样、怎么跑”的直观画面:
Extropic把他们的首款原型硬件叫作XTR-0,这个系统由一块可以重配置任务的FPGA和两颗首代的概率芯片X-0组成,每颗芯片内部包含若干“量子位式”的元件(文中称作qubits,但在此语境更多是指能表现概率行为的电路单元),这些单元不是把信息写成0或1,而是以“p-比特”(probabilistic bit)来表示不确定性,能在硬件层直接呈现概率分布。
这意味着许多传统AI工作负载中大量由矩阵乘法来逼近的概率与采样步骤,如果能在硬件上天然实现,理论上就能省下巨量的计算与能耗开销。
别急着说抽象,我举个比喻:现在大厂的GPU就是你用力推着一辆重货车搬沙子,而Extropic的做法像是找到了一条风把沙子自动筛走的捷径——同样的目标,成本可能天差地别。
他们还做了一件很聪明的事:发布了一个叫TRHML的软件工具,允许开发者在GPU上模拟Extropic芯片的行为,这样社区和潜在合作伙伴就能“在已有设备上试跑”他们的新计算模型。
根据报道,已有少数前沿AI团队、天气建模创业公司以及若干政府代表拿到这套硬件或软件用于测试(公司拒绝透露具体名字),这一步很重要——任何新硬件要被生态接受,光靠纸上谈兵不够,必须把“抽象原理”变成可以被工程化、能让用户上手的开发体验。
Atmo的CEO约翰·马特(Johan Mathe)就是其中一个早期尝鲜者,他表示用起来能够在更高分辨率下做天气预测,这是概率采样在实际气象建模场景中一个非常合适的切入点,因为气象本来就是关于不确定性的科学。
说到创始团队背景,这又是一个耐人寻味的节点:Extropic的CEO吉约姆·韦尔登(Guillaume Verdon,网络上亦有“Based Beff Jezos”等绰号)和CTO特雷弗·麦考特(Trever McCourt)都曾在谷歌从事量子计算相关工作,两人把量子计算中处理概率与幅度的直觉,转译到一种基于经典硅工艺的“概率电路”上,形成现在这个混合了量子灵感与可制造路径的设计。
换言之,他们不是空谈量子超越,而是在找一条“可制造、可扩展”的路径,把概率运算做成主流数据中心能用的硬件模块。这点让风险资本和政府、军用机构都坐不住了,毕竟如果真能达到文章中暗示的“在规模化时将能耗降低数千倍”的效果,那么对构建海量算力、削减能源成本具有颠覆性意义。
但现实世界总有“读条时间”——把概念级证明放大成用于训练像ChatGPT那样规模的模型,并不是一句话的事。
Extropic自己也清楚这一点:CTO指出他们拥有一种“比矩阵乘法更高效的机器学习原语”,但核心问题在于“如何扩展到ChatGPT或Midjourney那样的规模”。
这包含三个工程与产业问题:
第一是可制造性——概率比特的电路要在工艺流程中稳定地复现并量产;
第二是编程与生态——开发者如何用新的原语重写或编译现有模型、把训练与推理在新的硬件上高效运行;
第三是互补性——在数据中心里,新的TSU是否能与既有GPU/TPU形成协同、或必需完全替代某些工作负载。
这三条,每一条都需要时间、投资与大量工程实验来验证。
在市场与应用层面,文章给出的使用案例并非仅限生成式AI:天气建模是个天然合适的试验场,因为气象学本身就是以概率和不确定性为核心;国防或政府机构对高效模拟工具有刚性需求,这也解释了为何文章提到有政府代表参与早期测试。而在生成式AI领域,如果概率采样能在硬件级别高效实现,推理时的采样、生成和不确定性评估都可能变得更绿色、成本更低,这对希望把AI工作负载推向边缘或更广泛部署的企业来说,价值非常明显。
技术上,这套体系当前仍处于“原型+模拟器并行”的阶段:XTR-0这种由FPGA与X-0概率芯片组成的混合原型,是为早期评估与软件生态铺路的桥梁产品;TRHML模拟器则是把硬件行为映射到GPU上,让更多开发者在现有设施上跑实验。这种策略有利于降低试错成本、快速吸纳反馈,但也意味着真正的性能与能效数据要等到更大规模芯片与系统出来才会出来——也就是说,公众现在看到的是“有希望的证明”,而非已经被市场大规模验证的事实。
商业化与竞争态势方面,Extropic面临的既有机遇也有风险。机遇是巨大的:如果某类计算在硬件原语层面变得更适合概率采样,那么面向天气、金融风险、组合优化、生成式AI等领域的算力成本会显著下降,建数据中心的边际成本也会被重新定义。风险则来源于传统GPU/ASIC生态的庞大惯性、软件兼容性问题、以及半导体制造与封装的复杂性——任何新架构都要在这三方面至少做到“足够好”才能造成颠覆性冲击。此外,行业的大玩家(NVIDIA、AMD、Intel、Google的TPU阵营)也不会袖手旁观,可能会通过自研、并购或专利壁垒等方式快速回应。
从战略视角看,Extropic现在采取了“有限曝光+早期合作伙伴测试”的稳健路线:先把第一代原型交给前沿实验室、特定行业客户与政府代表,让他们在“真实问题”上检验这套概率原语的表现,同时开放TRHML模拟器让更广泛的开发者社区能上手尝试。这样做的好处是一旦某些应用场景出现明显的能效与性能优势,便能形成“真实客户证明”,有助于吸纳更多合作与资本。但反过来,这也意味着市场验证周期会比单纯靠炒作来的更长,外界要耐心等候更大规模的实测数据。
再说一句关于“到底能省多少”的谨慎话:报道里提到“成千上万倍的能效改善”是出现在“当规模化后且针对合适工作负载”的语境里——换句话说,这是一个承诺式的远期目标,而不是当下就能交付的指标。工程世界充满了从理论到实践的摩擦:噪声、误差、可制造性、散热与互连开销,都可能吞噬部分纸面优势。
所以对投资者和工程师来说,更务实的做法是关注两个短中期指标:一是在特定工作负载上与GPU同类产品比较的能效比(实际测量值),二是软件迁移成本——如果把现有模型迁移到TSU需要重写大部分代码或训练流程,那么采用门槛会很高。
最后聊聊更宏观的含义:当AI训练与推理把数据中心能耗推到历史新高时,任何能显著降低能耗的技术都会吸引资本与政策层面的重视。Extropic所代表的不是单纯的“新一代GPU”,而可能是一次更根本的范式转换——把“确定性二进制计算”替换或补充为“概率本位计算”,这不只是跑更快或更省电的问题,而是重新定义计算原语,进而影响软件框架、模型设计与产业链分工。如果这种转变发生,硬件、编译器、模型架构、甚至教学都会随之调整,形成一个新的生态圈。
作者背景:威尔·奈特,长期为《WIRED》撰稿,聚焦人工智能与前沿技术议题,擅长把复杂科技概念写成易懂的产业解读,报道常触及AI、量子计算和计算架构的交叉领域。