AMD搞了个“超级显卡群”——MI450X IF128,能一口气连128块显卡,速度爆炸(每秒传1.8TB数据,相当于一秒塞满300部高清电影!)。
对比之下,英伟达同期的VR200 NVL144只能连72块显卡,AMD直接多出72%的“组队战斗力”!
网速快到离谱:
顶配版每块显卡插3张超级网卡(800GbE),总带宽2.4Tb/s(比英伟达快1.5倍),而且用了黑科技UALink(比老旧的PCIe快多了)。
省钱版缩水成2张网卡+PCIe,速度直接腰斩,AMD:“不是不能用,但加钱才能爽!”
省钱但可能翻车:
AMD用被动铜缆连机柜(便宜!),而英伟达用主动光纤(贵但稳)。风险是——AMD这套太复杂,初期可能量产困难,良率扑街……
所以AMD还准备了备胎方案MI450X IF64(只连64块显卡,简化设计),生怕翻车没退路。
AMD想靠“人多势众+网速逆天”干翻英伟达,但技术太激进,可能变成“纸面战神”。2026年显卡世界大战,稳了!
架构特点:
- 横向扩展(Scale-Up)性能
- IF128的128 GPU互联:通过Infinity Fabric over Ethernet实现,单GPU双向带宽超1.8TB/s,显著高于NVIDIA VR200 NVL144的72 GPU互联(假设采用NVLink或类似协议)。
- 72%的理论优势:若互联效率接近线性,AMD在超大模型训练(如万亿参数级)时可能减少通信瓶颈,但实际优势需验证软件栈(如ROCm)的优化程度。
- 纵向扩展(Scale-Out)灵活性
- 3种配置选项:
- 高端SKU:每GPU配备3个Pensando 800GbE网卡,通过UALink(非PCIe)实现2.4Tb/s单向带宽,比VR200 NVL144高1.5倍。
- 中端SKU:2个800GbE网卡+PCIe协议,带宽受限(PCIe 6.0理论峰值仅256GB/s,实际可能无法满足2.4Tb/s需求)。
- 被动铜缆互联:相比NVIDIA的主动ACC电缆,AMD采用被动扁平铜缆连接机架,可能降低成本,但需解决信号完整性和距离限制(<1米)。
- 3种配置选项:
- 与NVIDIA的对比
- NVL144的72 GPU限制:虽然GPU数量较少,但NVIDIA可能在单节点内通过NVLink提供更低延迟,而跨节点依赖Quantum-X800 InfiniBand(预期1.6Tb/s端口)。AMD的带宽优势需在特定负载(如All-to-All通信)中才能凸显。
- GB200的主动电缆:NVIDIA可能牺牲成本换取更长距离和更高可靠性(如数据中心内跨机柜连接),而AMD方案更适合高密度机架。
生产复杂性
IF128的良率问题:128 GPU互联依赖复杂的被动铜缆背板,对制造精度要求极高,可能初期产能受限。IF64(单机架64 GPU)作为简化方案,旨在降低风险。
散热与功耗:若MI450X采用3nm/2nm工艺,高密度封装下的散热设计是关键挑战,尤其是铜缆互联对温度敏感。
软件生态与协议成熟度
Infinity Fabric over Ethernet:需验证其在大规模集群中的延迟和鲁棒性,尤其在跨机架场景下是否优于NVIDIA的NVLink+InfiniBand组合。
UALink的普及度:作为新兴协议(可能基于CXL或AMD自有标准),生态支持(如交换机厂商、第三方设备兼容性)将决定实际采用率。