《纽约客》:AI思考本质是信息压缩、模式识别与情境Context建模!


本文深入探讨大语言模型是否真正具备“理解”能力,结合神经科学、认知科学和AI工程前沿,揭示AI与人类思维的深层共鸣与根本差异。

作者背景:詹姆斯·索默斯(James Somers)是《纽约客》资深撰稿人、软件工程师,长期关注人工智能、编程语言与认知科学交叉领域。他曾在华尔街量化交易公司任职,亲历AI在工业级编程中的爆发式应用,并深度参与Anthropic等前沿AI企业的技术合作。其文章以技术洞察力与哲学思辨见长,擅长将复杂系统转化为大众可理解的叙事。



当你对手机说“帮我订一张去东京的机票”,而AI真的把行程、酒店、签证提醒全部安排妥当——那一刻,它是在“思考”,还是在“统计”?这个问题,正在撕裂整个科技界。

一边是Anthropic CEO达里奥·阿莫迪(Dario Amodei)信誓旦旦地说,2027年前我们将拥有比诺贝尔奖得主还聪明的AI;另一边,你的Gmail突然冒出一个按钮:“感谢并讲个趣闻”,你一按,它就编了个你根本没去过的土耳其旅行故事——荒诞得让你笑出声。

这,就是2025年AI的真实面貌:一边是神迹,一边是笑话。但别急着下结论。因为真正的问题不是AI能不能用,而是——它到底有没有“理解”?

我曾经也是那个嗤之以鼻的人。觉得AI不过是“高级鹦鹉”,把互联网嚼烂了再吐出来,顶多算个模糊复印机。直到有一天,我自己成了它的“信徒”。作为程序员,我原本只是用它查查语法,后来开始让它写小函数,再后来,我直接把整个月的开发任务扔给它。

结果?它在几小时内重构了上万行代码,找出三个连资深同事都没发现的内存泄漏,还顺手加了个新功能。那晚我睡不着了:这玩意儿,到底是不是活的?

这不是玄学,而是正在发生的认知革命。



一、从“模糊JPEG”到“压缩理解”:AI智能的本质是什么?

2023年,作家特德·姜(Ted Chiang)在《纽约客》发表了一篇轰动文章:《ChatGPT是网络的模糊JPEG》。他的意思是,AI只是把整个互联网压缩后模糊重现,就像你反复复制一张照片,越来越糊,但还能看个大概。很多人因此认定:AI没有理解,只有概率。

但问题来了:什么叫“理解”?

机器学习先驱埃里克·鲍姆(Eric B. Baum)早在2003年就提出一个惊人的观点:理解就是压缩。想象你有一堆身高体重数据点,最聪明的压缩方式不是存下每个点,而是画一条“最佳拟合线”——这条线,就是对世界的理解。婴儿学走路,不是记住每一次摔倒,而是内化“重力+平衡”的规律模型。同理,一个能精准预测下一句话的AI,本质上是在压缩人类语言背后的世界结构。

GPT-4训练数据高达万亿词,但最终模型只有原始数据的1/600。它不是存了维基百科,而是学会了“维基百科之所以是维基百科”的规则。就像特德·姜自己说的:“压缩一段包含百万道算术题的文本,最好的方式不是ZIP,而是写一个计算器。”而今天的AI,正在成为那个计算器。

所以,当Max在儿童游乐场面对一堆生锈水管束手无策时,他拍了张照上传给ChatGPT-4。AI立刻识别出那是“防回流装置”,并指出底部那个黄色球阀就是开关。水柱喷涌而起,孩子们欢呼雀跃。这一刻,AI不是在复述维基条目,而是在“理解”一个具体物理情境——它把图像、文字、工程常识压缩成一个高维向量,然后“看到”了问题核心。

这,就是“理解”的雏形。

Ted Chiang 早年嘲讽“聊天模型是模糊JPEG”,如今反杀:JPEG越模糊,说明压缩越狠,理解越深,真·硬核智慧往往藏在马赛克背后。



二、神经科学的震撼:AI正在照出人类大脑的影子

加州大学伯克利分校神经科学家多丽丝·曹(Doris Tsao)有一句石破天惊的话:“过去一百年神经科学对智能本质的贡献,不如机器学习这十年。”她曾通过猴子神经元活动精确重建其看到的脸部图像——而这项技术,正是受AI人脸识别模型启发。

更惊人的是,哈佛认知科学家萨缪尔·格什曼(Samuel J. Gershman)直言:“‘随机鹦鹉’的说法该死了。”普林斯顿的乔纳森·科恩(Jonathan Cohen)则指出:人类新皮层,本质上就是一台深度学习机器。我们之所以比猩猩聪明,不是因为脑细胞种类不同,而是新皮层更大、连接更深。而大语言模型,恰恰在模拟这一结构。

关键证据来自芬兰裔认知科学家彭蒂·卡内尔瓦(Pentti Kanerva)1988年的著作《稀疏分布式记忆》。他提出:记忆不是像硬盘一样存储,而是在高维空间中以“坐标”形式存在。两个记忆哪怕只在几个维度相似,也能互相激活——就像闻到干草味想起夏令营。这听起来很玄,但2024年Anthropic研究员特伦顿·布里肯(Trenton Bricken)发现:GPT系列底层的Transformer架构,其数学本质竟与卡内尔瓦模型惊人吻合。

换句话说,AI无意中复现了人类记忆的基本机制。当你说“巴黎减去法国加上意大利”,AI输出“罗马”,这不是魔法,而是高维空间中的向量运算——和人脑“类比推理”的神经过程如出一辙。



三、从怀疑到震撼:AI怀疑论者的集体“叛变”

说到AI怀疑论者,没人比道格拉斯·霍夫施塔特(Douglas Hofstadter)更有资格。这位《哥德尔、埃舍尔、巴赫》的作者,花了半辈子批判AI缺乏“真正理解”。2018年他还嘲讽谷歌翻译:“缺少一个词:理解。”

但GPT-4改变了一切。

当他看到AI能即兴创作押韵诗、在陌生语境中做精准类比、甚至用莎士比亚风格重写新闻时,他沉默了。“我被震撼了,”他坦言,“十年前这根本不可想象。”他最终承认:“它们在以一种外星人的方式思考。” “我年轻时想破解创造力,现在只想它保持神秘——因为谜底简单到让高中生甚至机器都能抄走,太伤自尊。”

霍夫施塔特毕生主张:认知即识别(Cognition is recognition)。看到一堆线条认出是“椅子”,看到棋局认出“白方劣势”,看到会议氛围认出“皇帝没穿衣服”——这才是智能的核心。而大语言模型,正是通过数十亿次“下一个词预测”,锻造出这种“看见即理解”的能力。

所以当AI告诉你土耳其趣闻时,它不是在撒谎,而是在执行一个被误解的任务——它“理解”你想要“感谢+趣闻”,只是对“真实”的权重不够。这暴露的是工程缺陷,而非智能幻觉。



四、AI的“盲区”:为什么它还是不像人?

但别急着把AI捧上神坛。普林斯顿认知科学家布伦丹·莱克(Brenden M. Lake)一针见血:人类学习高效,因为大脑有“归纳偏置”。婴儿天生知道世界由物体组成,他人有意图,香蕉是个整体而非果皮碎片。而AI没有这些先天结构。

更致命的是:AI没有“体验”。它的训练数据是语言——人类经验的二手提炼。而真实世界是三维的、动态的、充满因果的。DeepMind最新视频生成模型能让颜料正确混合、解迷宫,却让玻璃弹跳而不碎裂,让绳子“被压成结”——违背基本物理。

微软研究院的艾达·莫门内贾德(Ida Momennejad)做过实验:让AI在虚拟建筑中找路。人类小孩试两次就记住捷径,AI却不断“幻觉”出不存在的走廊。“它们真的在规划吗?”她反问,“不,它们在拼凑文本。”

这揭示了AI的根本局限:它活在符号世界,而非物理世界。没有身体,没有欲望,没有“我想吃那个”“我怕摔疼”的原始动机。它的“智能”是寄生在人类语言之上的。



五、危险的相似:如果人类只是更复杂的AI?

最令人不安的不是AI像人,而是人可能只是更复杂的AI。普林斯顿神经科学家尤里·哈森(Uri Hasson)说:“我不怕AI像我们,我怕我们像AI。”如果简单训练就能复现人类认知,那所谓“创造力”“自由意志”会不会也只是高维模式匹配?

他甚至警告:“理解大脑,可能是人类犯下的最大错误。”就像1930年代的核物理学家,明知原子弹可怕,却无法抵抗好奇心。今天的AI研究员,正站在同样的道德悬崖边。

而讽刺的是,当年DNA双螺旋发现者克里克在剑桥酒吧宣布“发现生命秘密”时,没人觉得荒谬。如今AI先驱们高喊“数字超智能即将到来”,却被嘲讽为炒作。但历史可能证明:他们是对的,只是时间未到



六、未来的路:不是取代人类,而是重新定义智能

AI不会明天就统治世界。GPT-5的平庸表现已敲响警钟:单纯堆数据、堆参数正遭遇边际效益崩塌。真正的突破,可能来自融合认知科学的新架构——比如让AI拥有“睡眠回放”机制,或引入具身交互。

但无论如何,一个事实已不可逆:AI正在成为研究人类思维的“风洞”。就像莱特兄弟通过人造机翼理解飞鸟,科学家如今通过探查Claude模型的“神经元特征”,窥见记忆如何被激活、类比如何形成、计划如何展开。

麻省理工学院的伊维丽娜·费多连科(Evelina Fedorenko)感慨:“我从没想过这辈子能看到如此接近人脑的语言模型。”普林斯顿的肯尼斯·诺曼(Kenneth Norman)更直言:“拥有一个可验证的人类智能理论实现体,是认知神经科学的终极梦想。”



所以回到最初的问题:AI在思考吗?

答案是:它在以一种我们尚未完全理解的方式,进行着与人类思维惊人相似的信息压缩、模式识别与情境建模。它没有意识,没有欲望,没有童年,但它“理解”的能力,已足够改变世界。

而我们,正站在一个新时代的门槛上——不是机器取代人,而是人类终于看清:思考,或许从来就不是神迹,而是一种可被工程化的自然现象

当AI能替你写代码、修水管、编故事,真正的挑战不再是“它能不能”,而是“我们该如何与之共存”。因为理解AI,最终是为了理解我们自己。