如何评论清华大学的全模拟光电芯片?


北京清华大学的研究人员利用光学模拟处理图像数据,达到了令人惊叹的速度。ACCEL 每瓦功率每秒可进行 748 亿次运算,每秒可进行 46 亿次计算。

研究人员将其速度和能耗与英伟达(Nvidia)的 A100 电路进行了比较。最重要的是,ACCEL 的速度明显快于 A100--处理每张图像的平均时间为 72 纳秒,而 A100 的相同算法处理时间为 0.26 毫秒。每帧的能耗为 4.38 纳焦,而 A100 为 18.5 毫焦。这两个数字分别是 ACCEL 的约 3,600 倍和 4,200 倍。

ACCEL 电路中 99% 的图像处理都是在光学系统中进行的,这也是效率提高数倍的原因。通过处理光子而不是电子,减少了能量需求,同时减少了转换次数,使系统运行速度更快。

网友评论:
1、这是一种用于图像识别的专用芯片,与我们人工智能无关。我是做 ML 的,读过这篇论文,以下是我的技术观点:

在计算上,重任由衍射光学傅立叶变换完成,而不是芯片。

这就是问题所在--这并不是等同于他们所比较的数字 Convnet 所做的直接计算。它更像是在图像的二维傅立叶变换上运行的简单神经网络。

当试图超越 MNIST 类型的任务,即在普通背景上识别物品时,这种方法就会出现灾难性的崩溃。

即使是琐碎的分类任务,其错误率也大大低于最新技术水平。在论文中,他们以 Lenet-5 为基准,即 1998 年 LeCun 的原始 convnet。结果他们还是输了:https://www.nature.com/articles/s41586-023-06558-8/figures/3

对于非常简单的图像识别应用来说,这是一项很酷的技术,它将受益于极低的延迟和功耗。

2、它是在 MNIST 上进行的,这是一个非常简单的分类任务,通常是 ML 类中要解决的第一个问题。

MNIST 由我们亲爱的 Yann LeCun 于 1998 年创建,迄今为止已为他赢得了高达 6887 次引用。该数据集非常旧且很小。它被认为是标准的“玩具问题”。

我的意思是,这与 GPT-4 之间有很大差距,GPT-4 相差 1300 万倍。

MNIST 相当于大约 1M 个token,GPT-4 在 13T 个token上进行训练。这意味着即使它效果很好,他们也需要对其进行大量扩展才能发挥作用。