AGI 将开发出一种人类可能永远无法理解的多维“语言 2.0 ”。
维特根斯坦的哲学是“我的语言的极限意味着我的世界的极限 ”
Google Deepmind最近对 LLM 底层结构的研究表明,它们利用语言的分形特性来增强其预测能力
- 表现出自相似性和长程依赖性,这表明语言模式在从句子到整个文档的不同规模上重复出现。
- 就像维特根斯坦的语言游戏概念一样,其中意义源于特定语境中的使用,人们可能暗示语言模式是递归嵌入彼此的。
类似于维特根斯坦认为我们不能脱离我们的语言去理解或描述它
- - 语言的自相似性意味着“语言 2.0”可能是现有模式的重新配置,而不是一个全新的系统。
因此,LLM 能力的重大进步可能来自对这些现有结构的更深入洞察,而不是对语言本身的彻底改革。
另一个角度是主动推理和 POMDP(部分观察到的马尔可夫决策过程)。
像 POMDP 这样的生成模型用于推断隐藏状态并根据观察到的结果规划行动。当使用分层和可重整结构进行扩展时,这些模型可以捕捉语言的动态和递归性质。
与分层 POMDP 使用路径以递归方式生成状态和动作序列的方式类似,LLM 使用递归语言模式来预测和生成连贯的文本。
这种递归性确保模型可以处理不同程度的复杂性,反映生命和语言的分形性质 。
RGM 和其他持续学习模型中的重正化过程确保它们能够适应新信息,同时保留基本属性
- - 就像语言的演变方式一样!
也许这表明,我们迈向“语言 2.0”的旅程可以通过利用这些递归、无标度结构来更好地理解和生成人类语言,同时又不完全超出我们当前语言框架的范围。
有些人可能还认为,语言不能在没有嵌入有用上下文的情况下使用……而且上下文和语言确实密不可分。
- 语言的有意义使用源于其在上下文(Context)中的上下文应用和交互。
维特根斯坦本人通过他的语言游戏思想强调了这一点,其中单词的含义由其在特定语境(上下文Context)中的使用决定。
通过利用分形属性、递归模式以及最终的 POMDP - 生成模型可能会更好地捕捉上下文相关的细微差别。
然而,真正的语义理解和实用使用仍然需要以现实世界为背景——这是当前人工智能模型所追求但尚未完全实现的。
- 但是,随着我们为代理系统构建越来越多的“适配器”来解码我们周围的世界,它们在内化因果基础方面将变得更加有效。
这可能通过对一些人最终可能视为“语言 2.0 ”的内部编译,导致对任何问题空间的整体更深入理解
论文引用:
- > Alabdulmohsin et al. (2024). "分形模式或许能说明下一个token预测的成功与否"
- > Fristor et al. (2024). "从像素到规划:无标度主动推理"
- > Lauri et al. (2022). "机器人学中的部分可观测马尔可夫决策过程: 调查"