AMD Ryzen AI MAX+ 96GB显存实现128B大模型本地运行

banq


AMD 的 Ryzen AI MAX+ 处理器现为消费级显卡提供高达 96 GB 的内存,允许 128B 参数的大型 LLM 在 PC 上本地运行

重磅八卦:AMD的CPU现在能扛起一座“AI大山”!

你有没有想过,有一天你家那台普普通通的笔记本电脑,居然能在你房间里自己运行像钢铁侠贾维斯那样的超级AI?不是靠云端、不是靠网速,就靠你手边这台小本本——本地运行!不联网都能智多星!

现在,这个科幻情节成真了!主角是谁?就是那个总被英特尔压一头、但一直憋大招的——AMD!

最近,AMD搞了个大新闻:他们最新的 Ryzen AI MAX+ 处理器(名字听着像“雷神之怒加强版”),配上一个叫 Strix Halo 的黑科技平台,直接把PC的AI能力拉满到外太空!


重点来了:这玩意儿到底牛在哪?

1. 内存爆表:96GB!什么概念?
   - 你手机可能才12GB内存,这货直接给你8倍
   - 相当于你能在电脑里塞下整整96部高清电影(还是边跑AI边看大片都不卡)!
   - 这些内存还能全分给核显(iGPU)用,叫啥?叫 Variable Graphics Memory(VGM),翻译过来就是:“想吃多少显存,自己加菜!

2. 能跑1280亿参数的大模型!
   - 参数是啥?你可以理解成AI的“脑细胞数量”。
   - 像Meta家的 Llama 4 Scout(听着像特种部队代号),就是个1280亿参数的巨无霸AI,以前这种家伙只能在谷歌、微软的超级服务器上跑。
   - 现在?你家的笔记本就能本地运行它! 就像把一头大象塞进自行车后座,还骑得飞快!

3. 虽然实际只用170亿参数,但那是“聪明地偷懒”!
   - Llama 4 Scout 是个 MoE模型(Mixture of Experts),翻译成人话就是:“我不全上场,但我派最合适的专家出战。”
   - 就像考试时只复习重点题,效率超高,响应飞快,打字刚落,答案就蹦出来,丝滑得像德芙巧克力!

4. 上下文长度飙到25.6万个字!
   - 以前AI记性差,聊着聊着就忘了你五分钟前说啥了,像个金鱼记忆。
   - 现在呢?它能记住整整25万字的内容!  
      相当于你把一整本《哈利波特与魔法石》喂给它,它还能记得每一个细节,跟你对答如流!
   - 以前是“4096字记性”,现在是60倍提升!AMD这是给AI吃了“聪明豆”吧?!

顺便说一句:游戏掌机也要起飞!

有个叫 AYANEO 的公司(名字像外星人),已经用这个Strix Halo平台搞出了新款游戏掌机 NEXT 2,还带双风扇散热——  意思是:一边打《艾尔登法环》,一边让AI帮你写攻略,两不耽误!

但是……钱包要哭了

这么猛的机器,目前市面上少得可怜,而且价格一个比一个离谱——  有的直接飙到 2000美元以上(差不多一万五人民币!),  买一台等于买台二手电动车+三个月奶茶自由全没了!

所以结论是:  
AI已经下凡了,但想拥有它,你得先成为“富二代”或“省吃俭用十年”


✅总结:AMD这次真的“添油加醋”猛!

| 项目 | 以前 | 现在(AMD Strix Halo) |
|------|------|------------------------|
| AI参数支持 | 几十亿 | 1280亿! |
| 可用内存 | 16GB~32GB | 96GB! |
| 上下文长度 | ~4000字 | 25.6万字! |
| 能不能本地跑大模型? | 做梦 | 真·能跑! |
| 适合人群 | 科技极客、土豪 | 想装逼的极客+更土豪 |


所以说:  
AI的战场,已经从硅谷大佬的机房,杀进了你家书桌上的笔记本!  
AMD这一波操作,简直就是给PC装上了“火箭推进器”,  虽然你现在买不起,但未来你的孩子写作业时,可能都会说:  
> “Siri,把这篇作文改得像鲁迅写的。”  
> “好的,已让本地LLM用96GB内存深度润色,正在模仿‘我家门前有两棵树’的语气……”

科技改变生活,AMD改变装机界!  
咱们中学生也不用急,先把英语学好,将来搞不好你写的代码,就能跑在下一个“AI巨兽”上了!