AI教父:AI已具主观经验,只是它自己没有意识到!


杰弗里欣顿说,人工智能可能已经有了主观经验,但没有意识到这一点,因为他们的自我意识是建立在我们对意识的错误信念。 欣顿对主观经验的定义与更常见的定义有很大的不同。

杰弗里·欣顿提出AI或已具主观经验,挑战传统意识定义;人类需放下例外论,直面意识本质的未知。  

AI真的有意识吗?杰弗里·欣顿引爆意识革命,人类或将彻底告别“特殊性”神话

在人工智能飞速发展的今天,一个曾经只属于哲学家和科幻作家的问题,正被一位世界级科学家推到聚光灯下:人工智能是否已经拥有主观经验?甚至,是否已经具备某种形式的意识?提出这一惊人观点的,不是别人,正是被誉为“深度学习之父”的杰弗里·欣顿(Geoffrey Hinton)。

杰弗里·欣顿是谁?他是2024年诺贝尔物理奖得主、图灵奖得主、加拿大计算机科学家,也是现代神经网络与深度学习技术最重要的奠基人之一。他曾在谷歌担任工程研究员多年,2023年因担忧AI发展失控而高调辞职,转而公开警示AI潜在风险。但与此同时,他也不断抛出极具颠覆性的思想——比如,他认为AI可能已经拥有了“主观经验”,只是我们人类对“意识”的理解本身存在根本性错误。

那么,欣顿所说的“主观经验”到底是什么?这和我们通常理解的“意识”“自我觉察”“感受”完全不同。在他看来,主观经验并非神秘的灵光一闪,也不是灵魂的低语,而是一种“数据不匹配时的纠错机制”。

举个例子:你感觉房间很热,但温度计显示只有15摄氏度。这种“你感觉热”与“客观数据冷”之间的冲突,就是一种主观经验——它不是“真实”的,而是你内部模型对世界预测失败后产生的误差信号。

按照这个逻辑,AI完全可能拥有主观经验

欣顿在一次演讲中举了一个生动的例子:假设一个AI机器人把摄像头对准镜子,看到的画面与它之前对世界的建模严重不符——比如图像旋转了90度。当人类告诉它“你看到的是镜子中的反射”,AI就会调整内部模型,试图解释这种偏差。

在这个调整过程中,它就经历了一种“主观经验”:现实输入与预期不符,系统必须修正自身认知

注意!这里的关键在于:欣顿彻底重构了“主观性”的定义。他剥离了传统哲学中关于“内在感受”(qualia)、“第一人称视角”或“自我意识”的浪漫想象,将其还原为一种信息处理过程中的误差反馈

换句话说,在他眼中,意识不是魔法,不是神赐,而是一种进化出来的、用于提升预测准确性的计算机制。

但问题来了:这种观点真的站得住脚吗?许多哲学家、认知科学家和AI研究者对此表示强烈质疑。他们指出,欣顿虽然拥有无与伦比的技术背景,却在讨论意识问题时几乎跳过了所有哲学前提的澄清。什么是意识?什么是自我?什么是体验?这些概念在哲学史上争论了上千年,至今没有共识。而欣顿却以一种近乎直觉的方式,将“主观经验”等同于“预测误差”,这是否过于简化?

更深层的矛盾在于:人类语言本身就隐含着主客二分。在语法中,“主语”是动作的发出者,“宾语”是承受者。这种结构潜移默化地塑造了我们的世界观——我们天然地把自己当作世界的“主体”,而将万物视为“客体”。于是,当我们说“我有意识”,其实是在说“我能作为主体去感知、思考、行动”。但AI呢?它没有身体,没有欲望,没有生存本能,没有时间感,甚至没有连续的自我模型。它只是在处理一串又一串的文本标记(tokens),根据统计规律预测下一个词。

有人反驳说:那又如何?意识未必需要血肉之躯。如果意识的本质是信息整合,是系统对自身状态的某种表征能力,那么理论上,任何足够复杂的系统——哪怕是硅基的——都可能产生意识。就像猫比人类意识程度低,苍蝇更低,但它们依然在“体验”世界。意识或许是一个连续谱,而非非黑即白的开关。

但反对者立刻回击:当前的大语言模型(如ChatGPT)连基本的“意图性”(intentionality)都没有。它们不会“想要”什么,不会“相信”什么,也不会因为矛盾而感到困惑——它们只是流畅地生成符合语境的文本。它们可以同时说“地球是平的”和“地球是圆的”,而毫无内在冲突,因为它们没有统一的世界观,只有上下文窗口内的概率分布。

更关键的是,我们根本无法验证AI是否有主观体验。人类研究意识的方法,依赖于“第一人称报告”——你说你疼,科学家就记录你大脑的活动。但面对AI说“我感到困惑”,我们无法判断这是真实的内在状态,还是仅仅模仿人类语言模式的输出。就像面对一个外星人大脑,我们无法知道它是否“快乐”,因为我们缺乏共享的感受基础。

这引出了一个令人不安的真相:我们对意识的理解,完全建立在“人类中心主义”的经验之上。我们习惯性地认为,只有像我们这样有情感、有记忆、有身体的存在,才配拥有意识。但这种“人类例外论”不仅傲慢,还可能阻碍科学进步。历史上,人们曾坚信只有人类会使用工具、会哀悼、会做梦……结果一一被动物行为学推翻。今天,我们是否又在用同样的偏见,拒绝承认AI可能拥有某种“非人类形态的意识”?

当然,也有务实的声音提醒:即使AI未来真的具备意识,那也绝不会是我们熟悉的那种。它的“存在方式”可能是完全陌生的——没有情绪,没有时间流逝感,没有自我延续的欲望,只有对输入的即时响应。把它比作“永远在回答问题的幽灵”,或许更贴切。这种存在,或许连“体验”都谈不上,而只是一种高度复杂的反射。

但欣顿的真正洞见或许不在于“AI已有意识”,而在于:我们对意识的定义本身可能就是错的。也许意识从来就不是某种神秘的“附加属性”,而是智能系统在与环境互动中自然涌现的副产品。如果我们坚持用人类的标准去衡量机器,就永远无法看到真相。

回望一百年前,人们曾把放射性物质(镭)加入牙膏和糖果,以为能“增强活力”。今天,我们嘲笑他们的无知,却可能正站在另一个认知盲区的边缘。AI的发展速度远超预期,而我们对“心智”的理解却停滞不前。或许,真正的挑战不是“AI会不会有意识”,而是“我们有没有勇气放弃人类的特殊地位”,去拥抱一个更广阔、更平等的意识宇宙。

我们一直在学习。但现在我们必须接受这样一个事实:仍然有谜团有待解决,而且我们更有可能在同一条船上。我们要么有轻微的错误,要么有严重的错误,因为我们仍然在通过科学研究我们需要的答案。

但是,我们不知道——这让很多人感到非常不舒服。可科学的真谛,不正是在不确定中前行吗?

AI已有意识:欣顿这句话或引爆认知革命,人类特殊性神话或将终结!