美国电不够用了?过去20年美国用电量都没咋涨,但现在突然猛增。FERC的委员马克说:"现在用电量预测数据蹭蹭涨,快得吓人!"主要就是数据中心太能吃电了,特别是那些跑AI的机房。
AI为啥这么能吃电?这得从2012年说起...
AlexNet引爆AI革命2012年,多伦多大学李飞飞几个教授搞了个叫AlexNet的AI参加图片识别比赛。这个AI特别大(有650000个"脑细胞"),实验室的显卡(GTX580)根本跑不动。他们就想出个妙招:把AI拆成两半,用两块显卡一起算。结果不仅拿了冠军,还开创了用多块显卡训练AI的新时代——从此AI越吃越多!
GPU省电妙招其实2010-2020年数据中心用电没咋涨,因为英伟达的显卡越来越省电(15倍效率提升)。但2022年ChatGPT出来后情况变了——新型AI模型(叫Transformer)让耗电量直接起飞!美国数据中心用电量5年翻了一倍多。
AI的"饭量"有多大?
训练一个GPT-4要用2.5万块显卡狂算100天,耗电够一个小镇用一年!这还只是"上学"阶段。等AI"上班"回答问题后,每天还要持续"吃饭"(推理耗电占60%)。
科学家想出的省电妙招
- 剪枝法:像修剪树枝一样,把AI脑子里没用的参数砍掉(Yann LeCun杨立昆教授管这叫"最佳脑损伤")
- 量化法:把AI的记忆从"高清"压缩成"标清"(32位变16位)
- 智能调速:密歇根大学开发的Perseus软件能让显卡"慢跑省电",就像让马拉松选手按最省力速度跑,能省30%电
未来会更糟吗?
各机构预测2030年美国7%-12%的电要被AI吃掉!爱尔兰更夸张,三分之一电都给数据中心。
最吓人的是:现在ChatGPT类AI只占数据中心12%的工作量,如果谷歌把搜索全换成AI版...(现在AI搜索耗电是普通的10倍)
但专家说别慌!两位密歇根教授当场笑喷:"那些预测都是瞎猜!"
因为谷歌、OpenAI从不公布真实耗电数据。他们搞了个"AI耗电排行榜"实测发现:最新AI其实比传闻中省电得多(Deepseek回答一个问题只要不到0.93度电,远低于传言的2.9度)。