作为意义的创造者,我们使用口语或手语来理解我们在周围世界中的体验。像ChatGPT(使用大型语言模型)这样的生成式人工智能的出现,对如何定义“意义”这一概念本身提出了质疑。
人工智能工具的一个常见特征是它们“理解”自己在做什么。
AI界的大牛、拿过诺贝尔奖的杰弗里·辛顿(Geoffrey Hinton)就说:“我真没想到,神经网络在搞懂自然语言这块儿这么牛!比我想象的快多了……而且它们好像真知道自己在说啥,这让我老惊讶了!”
辛顿还跟一个叫亚当·斯密的科学大咖聊过这事儿,牛气哄哄地说:“神经网络处理语言的能力,甩了乔姆斯基那套语言学理论好几条街!”
乔姆斯基是啥来头?
乔姆斯基(Noam Chomsky)是个美国语言学家,超级有名!他说,人类天生就有一种“通用语法”,就像大脑自带了个语言学习APP,不管啥语言,人类都能轻松学会。
科学家不服:AI真会“理解”吗?
我呢,研究人类怎么理解语言已经30多年了,还测过人读句子、听句子时脑电波的反应。说实话,我得站出来说一句:AI能“理解”?我可不太同意,虽然这观点现在挺火。
文字和语言不是一回事儿!
很多人傻傻分不清,以为屏幕上打出来的字就是语言。错啦!文字只是语言的“外套”。比如,印地语和乌尔都语,听起来差不多,语言学家都说它们其实是“双胞胎”,但写出来?完全两码事!塞尔维亚语和克罗地亚语也是这情况。
所以,文字 ≠ 语言,明白了吗?
背景Context的重要性
理解一个人说的话远不止能听懂他们说的话。即使是还不精通语言的婴儿,也能理解语境线索。
语言这东西,更多是在面对面聊天时发生的。
你得看语境!比如说话的语气、音调、眼神、表情,这些都得算上。
AI能行吗?它再牛,也就只能吐点文字出来。
举个例子,“我怀孕了”这句话,啥意思?得看情况!如果我这把年纪说这话,我老公估计得吓得魂儿都没了!但如果是个少女跟男友说,或者一个多年求子的妻子跟老公说,这句话的“味道”可就不一样了!听的人会根据语境,脑补出不同的意思。
在每种情况下,信息接收者都会对同一句话赋予不同的含义和理解。
在我最近的研究中,我发现即使是个体的情绪状态也会改变我们处理句子含义时的脑电波模式。正如其他神经科学家指出的那样,我们的大脑(以及我们的思维和心理过程)从来都离不开情感背景。
(注意: 大语言模型实际上就是根据语境上下文来吐出下一个单词,当然,一个人有眼睛和情绪系统,这些上下文还会决定文字的意义)
因此,虽然一些计算机代码可以以文本的形式响应人类语言,但它还远远不能捕捉到人类及其大脑在理解方面所取得的成就。
值得记住的是,当人工智能工作者谈论神经网络时,他们指的是计算机算法,而不是表征大脑结构和功能的实际生物脑网络。
想象一下,如果经常混淆“飞行”(例如鸟类迁徙)和“航班”(例如航线)这两个词——这可能会导致严重的误解!(注:这个基本错误LLM不会范,因为根据大模型语境确定意义)
最后,让我们来检验一下关于神经网络处理语言能力优于乔姆斯基语言学理论的说法。
该领域假设所有人类语言都可以通过语法系统(除了语境之外)来理解,并且这些系统与某种通用语法相关。
乔姆斯基以纸笔理论家的身份开展了句法理论研究。他没有对语言理解的心理或神经基础进行实验。他的语言学思想对句子处理和理解的潜在机制完全没有提及。
然而,乔姆斯基语言学派确实在探究人类婴幼儿如何能够如此轻松地学习语言,除非存在任何神经生物学缺陷或身体创伤。
(banq注:乔姆斯基是从语义这个角度定义语言,不会象字典那样列出所有解释,再根据上下文语境匹配意义,因为他老人家根本不会认为出现这样的智能)
乔姆斯基的理论咋了?
辛顿说神经网络比乔姆斯基的理论强,真的吗?
乔姆斯基研究的是语言的语法规则,觉得所有语言都有个“通用模板”。但他主要是纸上谈兵,没怎么研究大脑咋处理语言。他想搞明白的是,人类为啥能那么轻松学会语言。
地球上有7000多种语言,你生在哪儿,语言就得学哪儿的。人类大脑天生就得有个“语言学习模式”,不然咋整?乔姆斯基说,大脑里有个“语言学习模块”,专门负责学语言。这想法挺抽象,但从科学角度看,大脑确实得从出生就准备好学语言。
婴儿学语言的例子多得是,但具体咋学的,科学家还没完全搞清楚。不过,乱用科学术语,把AI的“理解”和人类的理解混为一谈,那可就危险了!这就像把“机器人”和“真人”搞混,后果可不得了!
banq注:整个文章的误区反映了很多人误区,以为一个单词需要依靠其语义理解意义,其实维特根斯坦早就提出:词语意义取决于语境上下文,这就是语言游戏本质。