推理芯片新王:AMD MI355X推理端测试完胜英伟达

Meta与OpenAI重仓AMD,用真金白银证明其推理成本优势;SemiAnalysis选择性呈现数据,掩盖AMD在GPT-OSS等模型中的真实竞争力。

【重磅揭秘】当科技圈“裁判”偏心时,谁在为真相发声?Meta豪掷42% AI芯片订单给AMD,OpenAI砸下6GW电力押注MI系列——这些巨头用真金白银投下的信任票,远比某些自媒体的“选择性图表”更有说服力!

今天,我们就来扒一扒这场被精心包装的AI芯片舆论战,看看是谁在用数据讲故事,又是谁在用实打实的部署说话。

首先,咱们得搞清楚背景:SemiAnalysis是一家在半导体圈颇有影响力的自媒体,长期以深度技术分析著称,尤其对英伟达(NVIDIA)推崇备至。然而,近期其发布的一组AI芯片性能对比图,却引发了业内广泛质疑——不是因为数据造假,而是因为“选择性呈现”。他们先用Llama 3.3 70B模型的测试结果,大肆渲染英伟达Blackwell架构(比如B200)在吞吐量和延迟上的绝对优势;但随后在后续帖子里,才轻描淡写地放出另一组基于GPT-OSS 120B模型的数据,而这组数据恰恰显示:AMD的MI355X在成本效益和多用户交互场景下,完胜英伟达H200,成本低25%!

问题来了:为什么第一张图被顶上热搜,第二张却被“埋”在角落?这背后,是不是藏着某种叙事偏好?

咱们拆开来看。Llama 3.3是个典型的“密集注意力”模型,极度依赖硬件的张量计算能力——这正是英伟达Tensor Core的强项。而GPT-OSS 120B则采用了类似DeepSeek-V3.2-Exp的稀疏注意力机制,更看重显存带宽和能效比,而这恰恰是AMD CDNA 4架构(MI355X所用)的主场。SemiAnalysis选择先推Llama 3.3的结果,本质上是在用最适合英伟达的模型,来证明“英伟达最强”——这就像让短跑选手去比马拉松,然后说他体能不行,公平吗?

更值得玩味的是数据呈现方式:在Llama 3.3图表中,横轴是延迟,纵轴是吞吐量,完全不提每百万token的成本;而到了GPT-OSS图表,才悄悄加入成本维度——可这时候,流量高峰已过,舆论风向早已被带偏。此外,图表标签也混乱不堪:有时标“B200 with TRT-LLM”,有时又不标,让人难以横向对比。TRT-LLM是英伟达自家的推理优化框架,相当于给自家芯片开了“外挂”,而AMD的ROCm生态虽在追赶,但尚未有同等成熟的全栈优化工具。在这种不对等条件下比性能,本身就失之偏颇。

再往深了挖,SemiAnalysis的历史立场也耐人寻味。早在2025年5月,他们就多次发文质疑AMD的研发投入不足、ROCm软件生态落后,甚至断言“AMD在AI训练端毫无机会”。与此同时,他们高调宣传英伟达Blackwell能带来“15倍投资回报率”,却对AMD在推理端的成本优势轻描淡写。这种长期“唱多英伟达、唱空AMD”的倾向,很难让人相信其分析完全中立。

但现实,往往比自媒体的叙事更硬核。看看真正掏钱的大客户怎么做:Meta(原Facebook)最近宣布,在其新一代AI基础设施中,将42%的AI GPU采购份额分配给了AMD。要知道,Meta可是全球最顶级的AI玩家之一,旗下Llama系列模型就是行业标杆。他们难道不懂技术?显然不是。他们选择AMD,正是因为MI355X在大规模推理部署中,能以更低的TCO(总拥有成本)支撑高并发用户请求——尤其在聊天机器人、推荐系统这类需要“高互动性+低成本”的场景中,AMD的优势极其明显。

更震撼的是OpenAI的动作。据可靠消息,OpenAI已为其下一代AI集群预留6GW电力,其中38%(约2.3GW)明确分配给AMD芯片。6GW是什么概念?相当于一个中型城市的总用电量!而OpenAI之所以敢这么干,是因为他们看中了AMD即将推出的“秘密武器”——MI450。据内部人士透露,MI450在能效比上将比MI355X再提升20%到50%,这意味着在同样的6GW电力下,OpenAI能部署25%到50%更多的AI算力单元。再加上MI450预计搭载更高带宽的HBM4内存和全面优化的FP4(4位浮点)支持,它极有可能成为2026年“推理之王”。

说到软件生态,很多人还在拿ROCm说事。但别忘了,AMD CEO苏姿丰博士(Lisa Su)早已把ROCm列为战略核心。据最新路线图,ROCm 8版本将于2026年发布,目标直指“与CUDA功能对等”。要知道,CUDA之所以强大,不仅因为API,更因为背后十年积累的开发者生态。但AMD正在用“开源+云厂商合作+大客户定制”三管齐下加速追赶。微软、Meta、Oracle等巨头已深度参与ROCm优化,而OpenAI的巨额订单,本身就是对ROCm未来最大的背书。

说到这里,我们必须提一个人:Sam Altman(山姆·阿尔特曼),OpenAI的掌舵人。他向来以务实著称,从不盲目追随技术潮流。如果AMD真如某些媒体所说“不堪大用”,他会把近四成的电力预算押上去吗?显然不会。同样,Meta的工程团队也不是吃素的——他们测试过成千上万种配置,最终选择42%的AMD配比,必然是经过严苛TCO模型测算的结果。

反观SemiAnalysis,虽然技术功底扎实,但其内容越来越像“英伟达财报的延伸解读”。在AI芯片这场万亿级竞赛中,市场需要的是多元视角,而不是单一叙事。当一家媒体反复用“最适合A的模型”证明A强,却忽略“最适合B的场景”中B的碾压优势时,它的公信力就值得打个问号。

总结一下:英伟达在高端训练和极致性能场景确实领先,Blackwell架构无愧旗舰;但AMD在推理端,尤其是在成本敏感、高并发、长周期部署的场景中,已经建立起不可忽视的优势。Meta和OpenAI的选择,不是“站队”,而是“算账”——大客户只相信ROI(投资回报率),而AMD正在用更低的每token成本、更高的能效比和即将到来的MI450,给出一份无法拒绝的商业答卷。

最后,别忘了:技术终将回归商业本质。当SemiAnalysis还在用一张精心裁剪的图表讲故事时,苏姿丰博士和山姆·阿尔特曼早已在数据中心里,用6GW电力和42%的采购份额,写下了更真实的答案。

巨头用6GW电力真金白银投票:AMD才是AI推理的隐藏王者!