大模型与生成式AI有本质区别

 大语言模型LLM突出了”语言“,但是人们存在对”语言”认知偏见,以为语言就是修辞、写作或交流或说服别人。

大语言模型与生成式AI关键区别是:

  • 大语言模型LLM强调了基于”语言即思想“的哲学前提,通过语言上下文分析能够实现通用人工智能AGI。
  • 而AIGC只是强调生成式,至于是否根据人类语言来生成,并没有突出强调,AIGC突出了LLM背后的Transformer架构:转换、生成,AIGC这个词语偏重技术和中性,没有突出如何超越人类智能,是一种各种技术的中庸称呼,

为什么突出人类语言很重要?
如果不理解这点,就无法理解为什么LLM是一条开启了通往AGI的道路。

至于语言为何通往通用智能,这涉及到两个认知转变:

  • 第一步:语言代表思想,这个认知提升很难,因为中国语言很多是情感、道德表达,而不是逻辑语言,当维特根斯坦提出”#语言游戏“以后,人类才开始基于语言进行演绎分析哲学,催生了#形式逻辑的大发展。
  • 第二步:语言只是思想意识层面的表达,为何能跨越实践客观事物?语言不只是思想精神表达,其实已经是主观与客观的综合。为了理解这点可先搞清楚大模型的”幻觉“。

大模型为何出现幻觉:
大模型出现很多幻觉正是这个道理,因为它们不知道一个词真正指向什么实体,其实人类因为有五官,以为自己能够鉴别真实与谎言幻觉,其实这本身也是一种人类幻觉,人类自身问题是会被自己的思想洗脑成一种特别类型的智能。

因此,我们不能用人类智能为标准去判断可能来自外星智能的大模型。

  • 奥特曼表示:AI 是外星智能的一种形式,但 OpenAI 正在将其设计得尽可能与人类兼容

下面附件中是相关资料,这两个认知提升需要个人耗费很长时间,如同爬山,有可能一个人一辈子就停留在了半山腰。

通往AGI通用人工智能的三个认知境界

  1. 康德:客观世界不可知:不要以为你用“客观”这个词语代表宇宙世界,你就以为你掌握了所有宇宙真理,除非你是上帝。
  2. 维特根斯坦:语言是客观世界的边界:只有用人类语言表达出来的宇宙世界才是我们认为的客观世界,例如用科学论文表达,用计算机语言表达。
  3. 递归计算:对系统进行限制(上下文的上文、逻辑前提、假设前提,这些都是一种限制、约束,#限定上下文),使其发出的任何信息都能折回自身,你就能获得远超限制的创造性输出(如万花筒里的千变万化图案,都是光线在几个镜片之间折射,折射是一种约束性发光)。 这就是为什么数学加计算远远超越了数学的形式主义。
这就是为什么人工智能不是统计学,也不是 "预测下一个符号":AI之父:大模型不仅仅是预测下一个符号

这就是为什么"人工智能无法达到人类智能水平"论点是错误的:另外一个AI之父杨立昆认为:机器智能首先需要首先达到猫狗智能,然后才能达到人类智能。
在他上下文前提条件中,假设猫狗智能是低于人类智能。这从事后的结果看是正确的,但是如果我们是从头开始创建智能,可能就不能以这种事后观察的结果顺序来创建了事物本身:什么是科学:杨立昆 vs. 马斯克

这就是为什么没有结构的生活不如纯粹自主的生活自由:王阳明“本自具足”
自然界中的限制并不决定你从系统中得到什么,它们建立了一个孕育创造的递归框架。(#道德经 中反复在叙述这个道理)

知识普及
下面是国产大模型Kimi的简单概况,用于知识普及:
生成式人工智能AIGC和大语言模型LLM虽然有一定联系,但它们是两个不同的概念。
生成式人工智能
生成式人工智能是一种能够创建新内容(如文本、图像、音频等)的人工智能技术。它通过对大量数据进行学习,掌握相关领域的模式和规律,从而生成新的、原创性的内容。生成式AI的目标是生成新内容,而不仅仅是识别或分类现有内容。它可应用于多个领域,如自然语言生成、图像/视频生成、音乐创作等。

大模型
大模型(LLM)指通过大规模数据和计算资源训练出的庞大神经网络模型。这些模型具有数十亿甚至上万亿个参数,能够学习到丰富的知识和语义信息。大模型本身不专注于生成新内容,而是作为一种通用的基础模型,可用于各种任务,如自然语言处理、计算机视觉等。著名的大模型有GPT-3、DALL-E、PaLM等。

两者区别

  1. 目标不同:生成式AI专注于生成新内容,而大模型是通用的基础模型。
  2. 应用领域不同:生成式AI应用于内容生成,大模型可用于多种任务。
  3. 模型规模不同:生成式AI模型通常较小,大模型拥有数十亿甚至上万亿参数。
两者联系
  1. 大模型可作为生成式AI的基础模型,通过微调等方式用于生成新内容。
  2. 生成式AI技术的发展推动了大模型的应用,大模型也为生成式AI提供了强大的基础能力。
因此,生成式AI和大模型虽然有区别,但它们在实践中存在密切联系,相互促进发展。生成式AI可以利用大模型的能力,而大模型也为生成式AI提供了基础支撑。