智能体是硅谷最新的流行词。这些人工智能模型可以自主执行复杂的多步骤任务。但展望未来,一些人认为未来多个人工智能代理将合作解决更具挑战性的问题。
通常,当 AI 代理使用自然语言进行交流时,它们不仅会分享当前正在处理的步骤的输出,还会分享此前的整个对话历史。接收代理必须处理这一大段文本才能理解发送者在说什么。
这会产生大量的计算开销,如果代理反复来回交互,计算开销会迅速增加。
研究人员表示,这种交换很快就会成为通信延迟的最大因素,从而限制多代理系统的可扩展性和响应能力。
为了突破这一瓶颈,研究人员设计了一种方法,让模型直接共享语言生成之前计算步骤中创建的数据。原则上,接收模型将直接使用这些数据,而不是处理语言,然后创建自己的高级数学表示。
然而,在模型之间传输数据并不是一件简单的事。不同的模型对语言的表示方式截然不同,因此研究人员将重点放在了同一底层 LLM 的不同版本之间的通信上。
即便如此,他们也必须明智地选择要共享哪种数据。有些数据可以直接由接收模型重复使用,而其他数据则需要重新计算。该团队设计了一种自动解决此问题的方法,以最大限度地节省计算量。
Droidspeak 的诞生
这促使微软的研究人员开发了一种新的通信方法,使代理能够使用 LLM 所依赖的高维数学语言相互交谈。他们将这种新方法命名为 Droidspeak(参考了《星球大战》中机器人使用的基于哔哔声和口哨声的语言),在arXiv[url=https://arxiv.org/pdf/2411.02820]上发表的预印本论文[/url]中,微软团队报告称,这种方法使模型的通信速度提高了 2.78 倍,而准确度几乎没有损失。
由此产生的通信加速可以帮助多智能体系统解决比使用自然语言更大、更复杂的问题。
这似乎只是迈向未来机器语言多样性与人类语言多样性相媲美的第一步。