数学家竟然借助神经网络求解世界上最难的方程式?

21-04-30 banq

这是来自 quantamagazine的一篇报道,当前使用人工智能的深度神经网络求解数学中偏微分方程的整个族,从而使得数学对复杂系统的建模更加容易,并且速度更快。
 

很难求解的方程式
高中物理学中,我们通过作用在某个质量物体上的单个力(例如重力)的简单示例,了解牛顿的第二运动定律:力等于质量乘以加速度。在唯一的独立变量是时间的理想情况下,第二定律实际上是一个“常微分方程”,通过求解该定律,可以随时计算对象的位置或速度。
但是在更复杂的情况下,随着时间的流逝,多种力作用于复杂系统的许多运动部件上。为了模拟客机在空中飞行,在地球上的地震波或疾病在人群中的传播,包括基本力和粒子的相互作用,工程师,科学家和数学家诉诸于“偏微分方程”。 (PDE)可以描述涉及许多独立变量的复杂现象。
问题在于,偏微分方程式(如在科学和工程学中一样必不可少和普遍存在)很难计算,这是众所周知的。可以使用近似方法来解决它们,但是即使那样,仍可能需要数百万个CPU小时才能整理出复杂的PDE。随着我们所解决的问题变得越来越复杂,从设计更好的火箭发动机到模拟气候变化,我们将需要更好,更有效的方法来解决这些问题。
 

深层神经网络来帮忙
70多年前,处于人工智能研究前沿的研究人员引入了神经网络,这是一种思考大脑工作方式的革命性方法。在人脑中,数十亿个连接的神经元网络可以感知数据,使我们能够从经验中学习。人工神经网络还可以按照自己教给自己的规则,通过连接的层过滤大量数据,以进行预测和识别模式。(banq:神经网络是对大脑神经元运作的模拟仿真)
现在,研究人员已经建立了新型的人工神经网络,可以比传统的PDE求解器更快地近似偏微分方程的解。并且经过培训后,新的神经网络不仅可以解决单个PDE,而且可以解决整个PDE族,而无需重新训练。
研究人员使用相关数据训练他们的神经网络,以学习这些输入和输出之间的相关性。训练包括为网络提供输入,并让其产生一些输出,然后将其与预期输出进行比较。然后,算法会调整神经元的权重,以最大程度地减少生成的输出和预期输出之间的差异。重复此过程,直到网络在某个可接受的错误限制内可靠地使它正确为止。一旦经过训练,就可以向网络显示一个新的输入,并且很可能会产生正确的输出。
同时,科学家们正在将深度神经网络-人工智能的现代带入这个领域。
深层神经网络的基本元素是人工神经元,它接收一组输入,将每个输入乘以权重,然后将结果相加,然后,神经元基于该总数确定输出,例如,如果总和低于某个阈值,则为零,否则为总和。现代的神经网络具有一个输入层,一个输出层和至少一个夹在它们之间的“隐藏”层。仅具有一个隐藏层的网络通俗地称为“浅”网络。否则,它们被称为深度神经网络。
通常的神经网络是将数据从一个有限维空间(例如,图像的像素值)映射或转换为另一个有限维空间(例如,对图像进行分类的数字,例如1代表猫,2代表狗) 。但是,新的深层网络所做的事情却大不相同,它们在无限维空间和无限维空间之间映射。
毫无疑问,这样的技术将加速涉及PDE的许多模型求解。最终目标是替换非常慢的非常昂贵的传统求解器。 
加州理工学院的Anima Anandkumar(左)和普渡大学的Kamyar Azizzadenesheli建立了一个称为傅立叶神经算子的神经网络,该网络可以有效地学习一次求解整个PDE族的过程。
更多点击标题! 
 
banq评:神经网络本质上是一种对复杂系统的模拟人类大脑运行的仿真方式,现在可以借助这种模拟仿真模型来求解数学上方程式,是不是主导精确确定性数学到了尽头?也需要借助中医脉络这样模拟”练金术“来求解?总之,科学探索无禁忌,没有这个是科学,那个不是科学的武断教条主义。
神经网络求解数学公式难题在于两者不兼容,数学是追求确定性结果,而神经网络是概率计算,能够识别模式,巴黎的Facebook AI研究小组工作的方法不是让神经网络求解逼近数字运算或数值,相反,他们发挥了神经网络的优势,根据实际解决的问题(语言翻译)重新定义了数学问题。有兴趣了解这里