GPU到底能用几年?AI算力进入一年一代高速迭代期

AI算力进入一年一代高速迭代期,电力与能效成核心瓶颈,旧GPU因经济性丧失正被加速淘汰,真实有效寿命缩至1-2年。

最近,关于GPU到底能用几年的问题,在AI圈子里吵翻了天。很多人还在拿“H100、A100都用了三五年了,不照样跑得好好的?”这种话来反驳,觉得GPU至少还能撑四五年没问题。但我要告诉你——这种想法,已经彻底过时了。

今天,我们就来彻底拆解:为什么从现在开始,GPU的“真实有效寿命”可能只有短短1到2年,而不是过去大家习以为常的4年甚至更久。

第一点,产品节奏加快
首先,很多人根本没搞清楚英伟达的产品节奏到底发生了什么变化。你以为H100是三年前的老产品?错了!H100其实是2023年初才开始大规模出货的,而英伟达真正把产品周期压缩到一年一次,是从2024年才正式开始的。也就是说,H100和后续的H200,其实还是属于“两年一代”的旧节奏下的产物。

真正的转折点,是Blackwell架构的B100/B200/B300系列——这才是英伟达进入“一年一更”高速迭代时代的开端。

从今往后,每年你都会看到新一代GPU发布,性能提升不是10%、20%,而是10倍、甚至30倍的飞跃,同时能效比也大幅优化。这种节奏下,你还指望三年前的卡还能打?那不是省钱,那是拖后腿。

第二点,也是最关键的认知转变:我们正在从“GPU稀缺”时代,快速迈入“电力稀缺”时代。

过去,只要你有钱、有数据中心机位,多插几张老卡无所谓,反正空间和电力都够用。但现在不一样了。全球顶级云厂商和AI公司,早就被电力配额卡住了脖子。

一个典型的数据中心园区,可能有上万张GPU的部署需求,但电网只批给你50兆瓦的用电额度。这时候,你还会把宝贵的电力配额,浪费在能效比低下的老卡上吗?当然不会!你会毫不犹豫地把A100、H100全部换掉,换成新一代Blackwell芯片——因为新卡每瓦能产出10倍以上的token(也就是AI推理结果)。

在电力成为硬约束的前提下,旧GPU不是“还能用”,而是“根本不能用”。你不是在选择要不要用旧卡,而是在选择要不要放弃增长。谁愿意为了省几张卡的钱,而牺牲服务更多客户、赚更多利润的机会?

第三,很多人幻想“旧GPU可以转去做内部任务啊”“可以跑轻量推理啊”。

这种想法太天真了。全球真正有能力同时运营公有云+自有AI业务的公司,一只手都数得过来——无非就是微软、谷歌、亚马逊、Meta这几巨头。就连它们,现在也在疯狂淘汰旧卡。为什么?因为GPU不是买了就完事的资产,它每时每刻都在烧钱:电费、冷却水、机房空间、运维人力……尤其现在全球电价持续上涨,欧洲部分地区工业电价已经突破0.3美元/度,美国也在飙升。

一张H100满载功耗700瓦,一年光电费就可能超过2000美元。而一张B300在同样推理任务下,可能只用100瓦就能完成,甚至更快。

你说,云厂商还会愿意把客户订单跑在老卡上吗?客户要的是低价、低延迟、高并发,你拿老卡应付,要么亏本,要么丢客户。现实很残酷:旧GPU在云市场已经没有经济可行性了。

第四,也是最容易被忽视的一点:AI推理本身的范式正在剧变。

过去大家以为,推理就是把训练好的大模型跑起来,参数越大越好。但现在,行业发现:一个参数量较小的模型,如果在推理时分配更多算力让它“多思考几轮”(比如通过Chain-of-Thought、Self-Refine等技术),效果可能远超一个静态的大模型。

这意味着,推理不再只是“跑得动就行”,而是需要强大的实时计算能力。而这种“高算力推理”,对GPU的张量核心、显存带宽、互联速度要求极高。

H100在B300面前,就像自行车对高铁——根本不是一个量级。

更关键的是,整个AI产业重心正在从“训练”转向“推理”。训练可能一年做几次,但推理是7x24小时不间断、面向亿级用户的生意。

这时候,成本就是生死线。据最新消息,某头部AI公司每赚1美元,就要亏3美元——这种模式不可能持续。唯一的出路,就是把推理负载全部迁移到最新、最高效的硬件上。只有这样,才能把每token的成本压到最低,实现盈利。

所以,总结一下:过去GPU能用四五年,是因为我们处在算力扩张期,电力和空间不是瓶颈,性能提升也缓慢。但现在,三大变量同时改变:

  1. 第一,英伟达进入一年一代的恐怖迭代节奏;
  2. 第二,电力成为数据中心最稀缺资源;
  3. 第三,推理成为AI商业化的主战场,而推理极度依赖能效比。
这三股力量叠加,直接把旧GPU的“有效寿命”压缩到1-2年。不是它们不能开机,而是它们在经济模型上已经“死亡”。

未来,我们会看到一个残酷但高效的市场:每年新一代GPU发布后,旧一代迅速贬值,二手市场崩盘,云厂商加速淘汰,客户只认最新架构。这不仅是技术升级,更是一场商业模式的洗牌。那些还在囤A100、指望靠老卡省成本的公司,很快会发现自己被甩在了后面——不是技术落后,而是单位算力成本太高,根本打不过对手。

AI的战争,早已不是“有没有GPU”的问题,而是“每瓦能产出多少智能”的问题。在这个新规则下,旧GPU,真的该退休了。