特伦斯·陶说,今天的人工智能通过了视力测试,但在嗅觉测试中惨败。他们生成的证据看起来完美无瑕。但错误是微妙的,奇怪的是不人味。“有一种隐喻性的数学气味...目前还不清楚如何让人工智能复制它。”
网友热评:
1、现在AI相当于模拟人体大脑的一部分(如上下文匹配),但是人的大脑这部分功能是依靠各种信号输入,现在这上下文匹配器从大脑移植倒外部机器中,那么我们只有通过挖掘自己内心那些隐藏的上下文信息通过语言告诉外部机器,除非外部机器自己具有具身智能(这是更难的远大画大饼)。
2、9个月前,AI根本无法写出一个连贯的证明,而现在,他们能够写出一些对世界上最好的数学家来说一眼就能通过的东西(即使它不符合严格性),这是令人惊讶的。
9个月前这些AI连"1+1=2"都证明得磕磕巴巴,现在居然能忽悠顶尖数学家了!虽然证明里藏着类似"因为天空是蓝的所以答案是对的"这种鬼话...
“气味”的问题是,我们没有相关的数据来输入这些模型。这是数学家们经过无数个小时的试验和错误发展出来的,但问题是在文献中,只有最终的证明被写下来。
为啥AI学不会数学家的"嗅觉"呢?就像你想学大厨做菜,但菜谱只写最后装盘的照片。没人告诉你大厨偷偷倒了三次焦掉的牛排,被油烫了五次手。数学家那些灵光一现:可能是在马桶上想到的/被苹果砸中脑袋/看女朋友分手短信时开窍的...这些统统没记录啊!
关于解决问题的整个过程,比如如何想出解决方案的,整个试错过程通常是...没有写下来。(这就是需要架构决策记录原因,后来新人能看到,其实这些原因藏在每个老员工肚子里)
假设一个数学家花了7年的时间来证明这个大定理,但你所看到的只是最终的证明。你不会看到他们在那些年里做的数百页的废料工作,如果他们甚至写下来。某个天才的灵光一现,可能只是某天早晨在咖啡馆随便找了一张餐巾纸上的凌乱笔记等。
这不就是你们做不出数学题的原因吗!参考书只给标准答案,就像只给看魔术师的最后亮相。老师现在要表演魔术穿帮版:这道题我试了三种方法都卡住,第四次才突然想到...
但有趣的是,同样的道理也适用于首先解决简单数学问题的推理轨迹:
就像当你读到R1的想法时,它说它会尝试这个和那个等等。这些想法的某些部分听起来像是人类的--尽管这在一年前还是数学的一个主要瓶颈。
人类的那些推理痕迹从来没有被写下来,它们要么完全在你的头脑中,要么在课堂上被口头表达出来,但从来没有真正被“写”出来。所以数据上有很大的差距...但不管怎么样,这些模型仍然能够得到类似于人类的东西。
最神奇的是什么?AI居然在资料严重不足的情况下,硬是摸到了人类思考的门道!
3、在过程中而不是结果中训练AI:这就是为什么陶说,也许我们需要的是让这些人工智能参加讲座,并询问教授如何提高等问题,以发展这种能力。
问题是我们无法真正模拟或训练它如何思考或过程。
这就引出了另一个问题-潜意识。或者是丹尼尔·卡尼曼的畅销书中描述的1/2系统。我不认为这些细微差别和复杂的相互作用会简单地从缩放中出现。
如果只需要LLM就可以到达ASI,我想大多数文明都可以。
从哲学的角度来看,这一定比这更难。尽管LLM是一个巨大的突破
4、 A lot of books teach you "how" to do a question... but not "how" to... how do I say it... "approach" a question.
很多书都教你 "如何 "做题......
却不教你 "如何".....我如何表达它...... "接近 "一个问题
这就是Tao所说的关于数学的“味道”(它被从这个片段中删除了,但是Lex Fridman在Tao之前谈到了“代码味道”)。代码或数学(或棋盘状态)中有一些东西你可以分辨出是好是坏,但你不能真正解释为什么。
我就称之为“直觉”。
很多数学书可能会教你解决问题的方法,但不会教你如何解决问题的直觉。
问题是,一般来说,只有解决方案被写下来。关于直觉或推理的文字要少得多。
在这个FrontierMath Tier 4视频的28-31分钟左右,他们提到了缺乏推理痕迹的训练数据。他们还提到了有一种直觉
解释补充:
陶神和AI大牛们说的“数学嗅觉”,就像老妈闻着味儿就知道你偷偷吃了辣条!参考书只告诉你“最后要洗手”,但没人说:
手指沾油的味道=微积分要翻车
草稿纸沙沙响的频率=快要有突破了
盯着天花板的角度和灵感的概率成正比!
看好了!普通教材是这样的:
- 问题
- 解答(没了)
而真正有用的书应该是:
- 问题
- 作者的第一反应(可能骂了句脏话)
- 尝试用课本例题方法——卒
- 咖啡洒在纸上意外发现图案
- 洗澡时想到的歪门邪道
- 最终解法
- 事后发现其实第三步就该放弃...
现在直播老师真实解题过程:
00:01 自信写下“解”
00:03 开始咬笔帽
00:07 画了只带武士刀的兔子
00:15 突然翻三年级的课本
00:30 解法比题目还长三倍...
这才是真实的数学啊同学们!
课后作业:
记录本周所有解题时的脏话/零食消耗量/走神次数
找出三个“差点放弃但硬刚成功”的案例
给参考书的标准答案补写300字内心戏
5、现实世界中,没有明确的奖励函数来指导LLM大模型找到超越人类学习的更优“走法”。
这也就是为什么我们需要考虑人类进化的“奖励信号”是否是这里的必要组成部分。
6、陶哲轩并非AI的反对者。他真诚地参与AI,并尝试将AI融入到自己的工作流程中。
陶哲轩 (Terence Tao) 是其领域的专家。
他根本就没怀疑人工智能。他只是说有些东西还没出现,大家都知道。他只是在表达谨慎。
我也不是要你怀疑人工智能。
我只是说,或许可以再往前推几年,毕竟这个预测已经非常乐观了。
比如说是2030年,那么可能是2035年。再比如说是2027年,那么可能是2030年,等等。