70年AI史:大力出奇迹


《血泪警告:AI圈打脸实录》
作者:学霸里奇·萨顿
2019年3月13日

70年AI研究告诉我们一个真理:大力出奇迹! 简单粗暴堆算力才是终极答案。

为啥?

因为电脑越来越便宜啊(摩尔定律)!很多研究者总假设算力不变(这时候人类经验确实有用),但现实是——算力迟早爆炸式增长!

短期 vs 长期:
短期:人类疯狂往AI里塞自己的经验知识(比如教AI下棋规则)
长期:算力碾压一切,人类知识反而成拖累
(就像你非要用祖传算盘对抗超级计算机)

大型打脸现场:
1️⃣ 国际象棋(1997年):
说起计算机下棋这档子事儿,1997年那可是个大事件!那年,IBM的深蓝(Deep Blue)愣是用硬核的“暴力”搜索,把世界象棋冠军卡斯帕罗夫给干翻了!这事儿听起来就跟科幻片似的,但真相是,深蓝压根没啥花里胡哨的招数,就是靠着超级强的硬件和软件,疯狂地算每一步的可能性,硬生生把对手逼到墙角。你说牛不牛?

可当时,那些搞象棋研究的专家们可郁闷坏了!为啥?他们可是花了大把时间,绞尽脑汁想模仿人类高手的套路,研究象棋的“内在美”,觉得这样才能显得高大上。

结果呢?深蓝这家伙完全不按套路出牌,愣是靠“蛮力”搜索KO了所有人!专家们气得直拍桌子,说:“这算啥?不就仗着算得快吗?这破方法一点不通用,也不是人类下棋的路子!”他们本来指望用人类的智慧碾压一切,可没想到被这“傻大粗”的搜索给打脸了,脸都绿了!

2️⃣ 围棋(20年后):
再来说说围棋,这故事简直就是象棋的“续集”,不过晚了20年上映。围棋比象棋复杂多了,棋盘大、可能性多得吓人,研究人员一开始也跟象棋那会儿一样,拼了老命想靠人类的智慧“偷懒”,尽量少算点,琢磨着用围棋的“玄学”结构来取胜。

可结果呢?哈哈,照样被“暴力”搜索给教做人!特别是AlphaGo这家伙,不仅靠搜索,还搞了个叫“自我对弈学习”的黑科技,自己跟自己下棋,学得飞快,硬是把人类的套路甩得连影儿都不剩!

其实吧,象棋和围棋的套路差不多,都是研究人员先想着“走捷径”,靠人类的理解省事儿,可到最后才发现,真正的大招还是得靠搜索和学习这两大神器。这俩玩意儿就像人工智能的“核武器”,算力越强,威力越大!

所以说,专家们一开始的“文艺路线”虽然听着高雅,可真到干架的时候,还是得靠硬实力——算得快、算得多、学会自己进化!这故事告诉咱们,装逼可以,但实力得跟上,不然就是自找打脸!

3️⃣ 语音识别:
说起20世纪70年代的语音识别大战,那真是人工智能圈的一场“腥风血雨”!当时,美国国防部的DARPA搞了个大比赛,简直就是高手云集,各种方法轮番上阵。一边是那些“人类智慧派”,他们觉得自己特聪明,靠着词汇、音素、人类嗓子的“高深”知识,觉得自己能把语音识别整得跟艺术品似的。

另一边呢?一群“统计狂人”祭出了隐马尔可夫模型(HMM),这玩意儿听起来高大上,其实就是靠海量计算和统计规律硬刚,压根不care人类的那些“玄学”套路。

结果咋样?“统计狂人”完胜!那些费尽心思搞人类知识的家伙们被打得满地找牙,脸都肿了!这事儿直接把整个自然语言处理(NLP)圈给震了,从那以后,统计方法和算力成了绝对的主角,人类知识?靠边站吧!后来,深度学习又来“补刀”,这家伙更狠,基本不咋搭理人类知识,直接在海量数据上狂练,算力拉满,性能直接起飞!语音识别现在牛到啥程度?随便吼两嗓子,机器都能秒懂,比你妈还贴心!

这剧情听起来是不是有点眼熟?对!跟前面说的象棋、围棋一个路数!研究人员总爱按自己的思路来,觉得自己特聪明,想把人类的“精华”塞进机器里,结果呢?老是被“暴力”计算啪啪打脸!摩尔定律一出,算力蹭蹭涨,聪明人终于反应过来了:别整那些花里胡哨的,算力才是硬道理!谁算得快、算得多,谁就是老大!

4️⃣ 计算机视觉:
再说说计算机视觉,这故事简直是“语音识别2.0”。早年那些视觉专家,成天研究啥边缘检测、广义圆柱体、SIFT特征,听着就头大,觉得自己特高端。可现在呢?这些全被扔进历史垃圾桶了!现代的深度学习神经网络,靠着卷积和一点“不变性”概念,简单粗暴,效果却好得离谱!一张图丢进去,甭管是猫是狗还是你家二大爷,机器都能秒认,准得吓人!

总结一下,这几十年的人工智能发展史,就是一部“人类自作聪明然后被算力教育”的血泪史。研究人员总想走“文艺路线”,结果老是被“暴力美学”碾压。算力为王,数据为皇,学习为魂!这三板斧下去,啥问题解决不了?所以啊,别老想着装高雅,赶紧抱紧算力大腿才是正道!


⚠️ 血泪总结:
嘿!这事儿可真是人工智能圈的“终极教训”,但咱们好像老是学不会,翻来覆去掉同一个坑里!为啥?因为人类总觉得自己特聪明,觉得自己那点“高深”想法能拯救世界,结果呢?老是被现实啪啪打脸!这教训可不是闹着玩的,得好好掰扯掰扯!

先说说这教训咋来的。人工智能研究这行当,历史简直就是一部“自作聪明史”。研究人员老爱干啥?使劲儿把人类的“智慧”往机器里塞,觉得这招特牛。比如象棋、围棋、语音识别、计算机视觉,早期全是这套路:把人类的套路、规律、结构硬塞进去。短期看,嘿!效果还真不错,研究人员乐得跟啥似的,觉得自己简直是天才!可问题来了,长远看,这路子就是条死胡同!为啥?因为人类的那些“精华”太局限了,塞进去的东西越复杂,机器越容易“卡壳”,进步直接停摆!

反过来呢?真正的大突破,全是靠“反人类”的路子——搜索和学习!这俩玩意儿不靠人类的花哨想法,就是硬算,算得快、算得多,再加上自己学,学得贼溜!像深蓝、AlphaGo、深度学习神经网络,哪个不是靠这套“暴力美学”干翻全场?但这成功也挺扎心的,为啥?因为它把人类自以为是的“高端”方法踩得稀碎!研究人员心里那个不服啊,感觉自己苦心研究的“艺术品”被一堆“傻算”给秒了,咽不下这口气!

这教训有啥启发?
第一,通用方法的牛劲儿!搜索和学习这俩招,简直是人工智能的“万金油”。不管你算力多猛,这俩都能随着算力涨一直往上冲,没上限!不像人类的那些“定制”方法,算力一多就露怯。

第二,人类的思维内容复杂得要命,空间、物体、对称性啥的,听着高大上,其实全是外部世界的“杂乱”投影,硬塞进机器就是自找麻烦!这些玩意儿复杂到没边儿,咋可能靠人工总结得完?

正确的路子是啥?
别塞具体内容,塞“元方法”!啥叫元方法?就是教机器自己去发现规律、自己去近似复杂世界。机器得学会“像我们一样发现”,而不是当个“复读机”,只会背我们已经知道的答案!

说白了,人工智能的终极目标不是造个“人类知识的搬运工”,而是造个能自己探索、自己翻山的“冒险家”!老想着把人类的发现硬塞进去,只会让机器更难搞懂“发现”这事儿咋运作。咱们得放手,让机器自己去野!搜索和学习,就是给机器插上翅膀的“双引擎”,算力就是燃料,越多越好!所以,兄弟们,别再犯那老毛病了,别老觉得自己比机器聪明,赶紧拥抱算力,拥抱通用方法吧!这才是人工智能的未来,别的都是自找的坑!


✨ 终极奥义:
别教AI做事!给它"学习+搜索"两大外挂就行

世界太复杂!别妄想用几条规则概括(比如"物体""对称性"这些概念)——让AI自己从数据里悟!

(就像养孩子:直接给答案不如教会他自学)

现在知道为啥GPT、AlphaGo这些"暴力美学"能赢了吧?


里奇·萨顿是谁

他本来是美国人,2015年入了加拿大籍,2017年还放弃了美国国籍,彻底“投奔”加拿大。

  • 强化学习的奠基人:萨顿和他的导师安德鲁·巴托(Andrew Barto)在1980年代开始搞强化学习,提出了好多关键理论和算法,比如时序差分学习(Temporal Difference Learning)和策略梯度方法(Policy Gradient Methods)。这些东西直接影响了后来像AlphaGo、AlphaZero这样能把人类棋王虐得满地找牙的AI程序。
  • 《苦涩的教训》:2019年,他写了篇超级有名的文章《The Bitter Lesson》,说AI研究老爱犯一个毛病——总想把人类的知识硬塞进机器,短期看着不错,长期却卡壳。真正牛的方法是靠搜索和学习,算力越强越无敌!这篇文章在AI圈被奉为“圣经”,连OpenAI的员工都得拜读。
  • 大奖拿到手软:2024年,他和巴托一起拿了图灵奖(计算机界的诺贝尔奖),表彰他们在强化学习上的开创性贡献。他还是皇家学会(Royal Society)、加拿大皇家学会、AAAI(人工智能促进协会)等一堆机构的院士,学术论文被引用了15万多次,影响力爆棚!


里奇·萨顿就是个“算力信徒”,用搜索和学习把AI推向新高度的超级大牛。