基于语境上下文学习推理是AI下一步大事情

对真正的超级人工智能(ASI)或类人人工智能(AHI)的看法。表面上,定义已经改变,但目标应该是深刻而又极其简单的。

这个目标应该是“hello world”,让AI从说hello开始,正如人类婴儿刚开始发第一次说话声音一样,之后开始与父母沟通交流和学习。

不要使用大模型来尝试压缩世界上的文本数据,然后检索它,而是让我们从头开始思考人类系统,并构建一个可以从最初开始的系统。可以采用这种人工方式的计算系统实际上可以产生人工超级智能。但它不一定是从一个奇点开始的,而是从一个刚刚离开母亲子宫的婴儿开始学习和适应周围的世界。

我们的思想和我们的行动/目的都来源于沟通和语境上下文。我不知道我的大脑是否因为长期从事自动化工作而被硬性植入了这种思维方式,但 "语境(上下文、Context)"一直是个有趣的话题。

掌握上下文是非常关键的,到目前为止,人类始终拥有语境上下文。想想聊天机器人是如何工作的;好吧,我应该说是 ChatGPT 或 Claude 或 Bard 如今是如何工作的。你说什么,它就回什么,这就是简单的推理。

奇怪的是,如果 ChatGPT 在下午 5:00 说“Hello”。那会让你吓坏的吧?你好,这是怎么回事。

现在,您可以使用脚本化聊天机器人来伪造这一点:
您好,请问有什么可以帮您的吗?你看到上下文就在那里切换了。
然而,这很容易伪造,因为一旦我做出回应,今天的天气是什么,上下文就切换回我的语境。

流程变得更加简单。我称之为把人放进盒子里。他们不知道自己在一个盒子里,但他们确实在一个盒子里。(banq注:上下文语境陷阱,带节奏)

这是一个非常微妙的概念,但它却具有无限的力量。

通过上下文语境可以设置无限保护装置,以防止超级智能体改变人类系统。可以说是一堵无限的保护墙。这解决了大模型的安全问题。

主动学习
基于语言的主动式 RL 学习系统。也就是说,该系统可以主要以交流的方式运行。想想人类在学习说话。

这将完全脱离 LLM 或静态(懒惰的 NLP 层)推理模型。推理模型是我们现在所拥有的,需要输入才能得到结果。从目前来看,这实际上是一堵无限的保护墙。除了训练出来的东西,什么都不可能出来。

因此,你可以让系统仍然使用这一层来进行世界观的长期记忆。谷歌的 "Deep Mind "正是如此。

使用语言进行推理是下一件大事。