缩放定律(像吹气球一样越吹越大效果越好)
AlphaFold(用AI预测蛋白质结构的诺贝尔级操作)
RLHF(ChatGPT的驯兽师,发明人Dario其实是生物物理博士)
扩散模型(现在最火的AI画画技术,原理像滴墨水扩散)
标准化流(把数据当水流一样拧来拧去的神操作)
变分自编码器(AI界的"压缩饼干"制造机)
神经正切核(用微积分给神经网络做CT扫描)
Hopfield网络(AI里的记忆海绵宝宝)
信息瓶颈理论(教AI学会"划重点"的秘籍)
神经风格迁移(把你的自拍照变成梵高画风)
ImageNet(AI界的黄冈题库,创始人李飞飞本科是物理系的!)
Chinchilla最优性(证明AI不是越大越好,像给熊孩子配书包)
最搞笑的是ImageNet创始人李飞飞阿姨,人家本科居然是学物理的!这些物理大佬转行搞AI,就像篮球运动员突然去拿电竞冠军,还顺便重新制定了比赛规则!(战术后仰)
AI的最后一脚是计算机科学踹的,但前面全是物理和数学在推车!
物理学是给现实世界建模型的,数学是给抽象逻辑建模型的——那物理学是不是也能当生物学的“临时工”,帮忙填那些还没搞明白的坑?毕竟物理太难了,能玩转物理的大佬,转头搞AI照样乱杀,这很合理!
计算机科学?在电脑上发生的最惨烈事故!(笑)除非你发现,AI里一堆关键突破其实是当年那帮“老古董”搞的——他们年轻时连计算机系都没得读,只能靠物理和数学硬刚。
上面列的那些还不到机器学习的1%!真要论资排辈,19世纪那帮数学家对AI的贡献可能更大……(比如傅里叶变换、概率论,现在不还是AI的底层支柱?)