中国人领先地制作出全尺寸人脑数字模型?

这篇论文发表在《自然》杂志的论文《数字人脑的模拟与同化》介绍了数字大脑(DB),这是一个利用个性化磁共振成像(MRI)数据和生物约束来模拟人脑规模的脉冲神经元网络的平台。

DB 架构包含多达 860 亿个神经元和 47.8 万亿个突触,分布在 14,012 个 GPU 上。此设置采用两级路由方案来加速脉冲传输。该平台成功复制了人类大脑静息状态下观察到的血氧水平依赖性 (BOLD) 信号,实现了高相关系数。此外,它还展示了与感知输入的交互,这在视觉任务中得到了证实。这些发现表明,创建人类大脑的数字表示是可行的,可能会带来广泛的应用。
论文集

作者强调了模拟如此复杂系统的挑战,包括需要高效计算以及从有限的实验数据中对大量模型进行统计推断。DB 平台通过实现一个反映人脑规模和复杂性的脉冲神经元网络来解决这些挑战。

这项工作代表了计算神经科学领域的重大进步,为研究人类大脑功能提供了强有力的工具,并可能有助于开发个性化的医疗治疗和干预措施。

网友讨论1:
我们甚至还没有给大脑运作所必需的许多神经递质起名字。对神经连接进行建模并不足以真正重建或模拟大脑的功能,但至少它能起到一定作用。
问题是,有多少东西可以被抽象出来,从而得到有用的结果。最好的方法是确保有足够的计算能力。

网友讨论2:
神经递质负责翻译进出神经元的大部分信息。神经元无法仅凭电信号计算信息,电信号在轴突处被转换成数百种神经递质(其中许多我们尚未识别),神经元可以理解和利用这些神经递质。然后,神经元使用这些神经递质来确定需要创建和发送哪些新的神经递质组以及发送到哪些突触,然后在轴突处再次转换成电信号,依此类推。
如果不了解神经递质、它们携带的信息以及神经元如何读取/使用神经递质,我们将无法模拟大脑的许多神经功能,除了那些不需要信息处理的基本功能。

网友讨论3:
机器学习之所以如此强大,是因为它绕过了理解。如果数据集足够详尽,构建的模型将模拟我们不理解的一切。数据集是我们认为与解决问题相关的直观构建的目录,随着时间的推移,这个过程应该以一比一的比例模拟大脑,揭示出许多我们不了解的大脑工作原理,最终模拟出一个像大脑一样的东西,其能力超出了大脑实际所能做到的一切,因为我们已经超出了精确模拟所需的数据,它将产生新的能力。

网友讨论4:
自 1986 年以来,我们就拥有了完整的线虫连接组。它有 302 个神经元和 7000 个突触。40 年后,我们仍然对其神经系统如何运作知之甚少。模拟在几秒钟内就会失效。因此,它们的神经系统如何运作在很大程度上仍然是个谜。https ://pmc.ncbi.nlm.nih.gov/articles/PMC6630759/
作为参考,人类大脑有约 860 亿个神经元和超过 100 万亿个突触。
因此从逻辑上讲,如果我们到 2025 年仍然无法理解线虫的神经系统,那么我们距离人类还很遥远。并不是说它不会有帮助,但你必须从某个地方开始。

网友讨论5:
人工智能的妙处在于它能够推断出人类不知道的数据。如果有足够的关于人类大脑的数据,那么旨在在数字环境中模拟大脑的人工智能将模拟我们不了解的事物。我们不会将大脑的每个组成部分都编入目录并将其上传到虚拟现实环境中,而是输入大脑生成的详尽数据集,并根据这些数据在模拟环境中对其进行逆向工程。

人工智能可以检测出人类错过的所有模式,这就是它如此精确的原因。我并不是在贬低收集数据集的难度,但机器学习的本质使得人类无需完全理解他们试图用机器学习解决的任何问题,只要数据集隐含地包含该信息,它就会构建一个模型来解释我们不知道的组件。

网友讨论6:
通过对大脑进行广泛的扫描,以及对大脑模糊看到的和与之交互的事物进行成对的扫描,训练一个模型来预测大脑在获得感官输入时的状态,然后理解预测的大脑状态,并再次输入,以连续的方式输出、输入、输出,评估在遇到未经训练的场景时最终结果的准确性将会很有趣。

虽然最终产品无法学习,但它只是对训练数据来源的受试者大脑的模糊平均再现,而且由于使用不同的大脑进行训练,它可能很容易产生幻觉,导致大脑构成逐渐发生变化,因此它可能也不会擅长诊断和理解精神疾病。如果说有什么问题的话,那就是在充分完善之前,它只是一个巨大的道德困境。

网友讨论7:
根据我所读的内容,它是某种程度上的建模,但它是简化的神经元模型(它们使用非常标准的 Leaky Integrate-and-Fire),而不是更复杂的活神经元,诸如神经胶质相互作用或树突计算之类的东西似乎没有在这里建模,等等。
我会称其为大规模脉冲神经元网络模拟平台,但这个名字有点拗口。它实际上并不是全尺寸的大脑数字模型,或者看起来不像。

网友讨论8:
这是一项有趣的工作,但称其为人类大脑的全尺寸模型似乎有些牵强。你不可能用 860 亿个参数来模拟 47 万亿个突触。

网友讨论9:

  • 这篇论文读起来就像是对现有图卷积和循环网络方法的陈旧翻版,只是做了一些渐进式的调整,然后被冠以革命性的称号。
  • 远非革命性地改变该领域,而只是重新包装了普通的神经网络思想,并试图将它们伪装成一次彻底的飞跃。
  • 同时,结果的呈现缺乏关键的透明度,作者的姿态如此夸张,以至于引起了人们对其动机的各种怀疑。
  • 这篇论文没有突破过去的天花板界限,是炒作。