模式识别公式:如果X 那么Y 是因为Z
智能的核心是模式识别,通过“如果X,那么Y,是因为Z”理解因果关系,推动问题解决和认知进化,宇宙与智能都是分形的。
人们总是很简单不屑一顾说:AI不过是模式识别而已!
是啊,确实如此。
那你觉得智能到底是什么呢?
在西蒙·巴伦-科恩的书《模式探索者》中,他指出了我们学会的进化认知技巧,可以说是“智能的公式”:
如果X,那么Y,是因为Z。
这个模式解释了我们所有的好奇心和解决问题的能力。我们的大脑学会了识别因果关系,然后提炼出原则。
- 有时候我们会搞错。比如“如果庄稼歉收,那么我们需要献祭更多的山羊,因为神对我们生气了”(货物崇拜偏见),但随着时间的推移,我们发展出了更可靠的测试方法。
- 现在我们可以说:“如果不下雨,那么我们需要建造灌溉系统,因为植物需要水,否则我们都会饿死。”
那什么是因果关系?
那就是注意到事件序列中的模式。
第一性原理思维?就是注意到那些能导致准确世界模型的预测性、显著的信息片段。
说到底,一切都是模式。宇宙是分形的;智能也是分形的。
- 宇宙和智能都具有分形的性质。这意味着无论是在微观还是宏观层面,模式和结构都在不断重复和扩展。
- 这种分形性质使得我们能够通过理解简单的模式来推导出复杂的系统行为:软件架构的灵活设计
为什么大语言模型在医学上这么厉害!
其实都是模式识别。
当人们说“人工智能就是个模式识别器”时,想想:“那你觉得诊断疾病是什么?”
诊断疾病就是识别一堆症状和化验结果——说白了,也是一种模式。难怪ChatGPT在医生这个高大上的工作之前就表现得这么出色。
再来看看其他不那么关键的特点,比如“医生态度”和“随时能找到医生”。ChatGPT(和Claude)已经满足了经济替代的四个标准:
- 更好——光是ChatGPT就能提供更准确的诊断
- 更快——ChatGPT 24小时在线(人类医生可做不到)
- 更便宜——ChatGPT每月只要20美元
- 更安全——ChatGPT准确率90%,人类医生只有73%
你觉得如果拖慢这种转变会浪费多少钱?
你觉得因为人类不必要的错误会失去多少生命?
你觉得如果不尽快推广这个技术,会有多少不必要的痛苦发生?
题海战术其实就是锻炼孩子的模式匹配能力
从题海和应试教育中走出来的学霸其实类似大模型,大模型做大数据“题海”训练时,就是靠死记硬背和模式识别而已 。:
数学不过是数字的模式!数学难的是关于识别模式
人和AI最后会用差不多的方式来表达一些东西
麻省理工学院、哈佛大学和纽约大学的科学家们发现,机器的“大脑”(神经网络)和我们人类的大脑,最后会用类似的方法来表达同样的信息。这说明,虽然机器的工作方式和我们的大脑完全不同,但它们最后还是会找到类似的方式来表达一些东西。换句话说,越来越多的证据表明,虽然机器和我们的大脑看起来很不一样,但它们可能一样聪明。
科学家们还说:“很多不同的机器‘大脑’(人工神经网络)和我们大脑的表达方式很像,这说明机器和大脑可能在某些方面越来越像。”总的来说,他们的研究发现,机器和大脑虽然不一样,但它们在表达信息的时候有很多相似的地方。
他们是怎么做的呢?
他们研究了很多不同的文字模型,看看这些模型是怎么用差不多的方式处理句子的(就是预测句子的意思)。然后,他们让一些人看这些句子,同时用机器扫描他们的大脑。结果发现,这些句子能很好地预测大脑的反应。他们还发现,图片也是一样的。他们先找那些让人产生类似反应的图片,然后在机器上测试,发现这些图片在机器上也能产生类似的效果。
为什么这很重要呢?
因为这说明智能是可以“互相替换”的。也就是说,人和机器都在学习怎么用很多样本(例子)来表达信息。可以这么想:如果让几个人去整理一个图书馆,即使他们没有互相商量,他们也可能会想出差不多的方法(比如按主题分类)。这并不是因为他们互相抄袭,而是因为有些方法本来就比别的方法更好用。
科学家们还说:“虽然不同生物之间可能有相似的地方,那是因为它们的进化过程很像。但大脑和机器的相似,是因为它们都要解决外面世界里的问题,比如找到路、认出人脸或者猜下一个字是什么。”
这更像是一个证据,说明我们做的机器越复杂,它们就越会在某些方面表现得像人,而这些方面人已经做得很好了(比如看东西和用语言交流)。这也和其他研究结果一样,说明机器在变大的时候,会越来越像人(就像柏拉图式的人工智能)。
读更多:生物和人工神经网络中表示的普遍性(bioRxiv)。