- 摆脱当今需要大型、耗能数据中心的“云计算”模式,
- 转向“边缘计算”模式:将人工智能计算转移到你的个人设备、笔记本电脑或手机上。
今天《自然》杂志报道了这一突破,它是由印度理工学院纳米科学与工程中心 (CeNSe) 的 Sreetosh Goswami 教授领导的一组科学家和学生取得的。他们所做的工作主要是开发一种称为忆阻器的半导体设备,但使用的是金属有机薄膜,而不是传统的硅基技术。
这种材料使忆阻器能够模仿生物大脑使用神经元和突触网络处理信息的方式,而不是像数字计算机那样。这一发现背后的“分子策划者”是 Sreetosh 的父亲 Sreebrata Goswami 教授,他是 CeNSe 的客座科学家。
忆阻器与传统数字计算机集成后,其能量和速度性能可提高数百倍,从而成为极其节能的“人工智能加速器”。该团队工作所需的硅电路——集成在传统 65 纳米节点硅处理器中的 64X64 忆阻器阵列——由 Navkanta Bhat 教授制造。
当最终扩大规模时,该技术可以使最大规模和最复杂的人工智能任务(例如大型语言模型 (LLM) 训练)在笔记本电脑或智能手机上完成,而不需要数据中心。
背景上下文
当今基于硅晶体管技术和标准冯诺依曼架构(输入-存储/内存-输出计算模型)的数字计算正在面临处理速度和能源效率的限制,尤其是在人工智能的苛刻要求下。
问题是:
- 由于数字计算的本质依赖于二进制运算,需要将所有需要处理的信息转换为 0 和 1,并将大型计算任务(俗话说要吃的大象)分解成小块。
- 又由于处理器和内存单元之间相隔一段距离,数据需要在它们之间不断地来回传输才能进行处理,从而限制了计算速度并增加了巨大的能源损失。
到目前为止,第一个问题都是通过一种蛮力方法解决的——制造能够以极快的速度执行大量步骤或操作的处理器。但第二个问题——处理器和内存之间的分离——是一个瓶颈,会对整个计算领域产生影响。这就是需要大量处理能力的原因,因此导致计算基础设施的升温。
计算机芯片制造商采用了一种称为内存计算的方法来克服这些问题,即将内存硅与计算硅集成在一起,但这并没有产生重大影响,因为它仍然依赖于硅晶体管和数字计算。
IBM 和中国清华大学等公司分别尝试利用硅技术模拟大脑,研发出 True North 和 Tianjic 芯片,但也没有取得重大进展。
这就是为什么 IISc 的突破具有全球意义。Sreetosh 教授的团队采用金属有机薄膜方法制造忆阻器,这也是一种内存计算方法,但其工作原理实际上类似于大脑的神经元突触电路。
神经形态计算
我们的模拟大脑与数字计算机的运作方式不同。大脑中的记忆和处理过程并不分散。此外,与数字计算机不同的是,大脑不会将信息处理为 0 和 1,也不依赖于将大象分解成小块来吃。相反,大脑通过吞噬大块数据来处理信息,从而大大减少了获得答案所需的步骤数。因此,大脑非常节能。模拟计算和模仿大脑的忆阻器技术的结合使神经形态计算变得快速而高效。
由 Sreetosh Goswami 教授及其团队开发的设备存储和处理数据不是两种状态(0 和 1),而是惊人的 16,520 种状态,将 64X64 矩阵乘法(人工智能算法背后的基本数学是矢量矩阵乘法)所需的步骤数减少到 64 步,而数字计算机需要 262,144 次运算才能完成同样的工作。
该团队使用该设备插入普通台式计算机进行一些复杂的太空图像处理,根据詹姆斯韦伯望远镜发出的数据重现了 NASA 标志性的“创世之柱”图像。它只用了传统计算机所需时间和能量的一小部分就完成了这项工作。该团队报告称,其能效为 4.1 TOPS/W,“比 NVIDIA K80 GPU 的效率高 220 倍,并且还有很大的改进空间。”
这项尖端研究由印度电子和信息技术部 (MEITY) 资助开展。
到目前为止,该团队已经证明了概念验证,并将分子膜忆阻器技术与传统数字系统相结合,以 64X64 阵列充当“AI 加速器”。他们打算构建更大的阵列,最高可达 256X256。MEITY 的资助还旨在将研究推向极致,以开发和演示片上系统解决方案,并孵化一家初创公司,使其商业化。Goswami 教授预计将在未来三年内完成这项工作。如果印度理工学院团队取得成功,印度将在全球 AI 竞赛中拥有一匹强大的骏马。