@ 2021.09.23 , 16:30

储层计算:最新AI模型将其解算复杂数学问题的效率提升了百万倍

储层计算已经是科学家所能掌握的最先进和最强大的AI类型之一——一项新的研究概述了如何使其在某些任务上的速度提升百万倍。

考虑到最复杂的计算问题,如预测天气或模拟流体在特定空间的流动,这都是令人兴奋的突破,

这类问题正是这种资源密集型计算的发展方向。这项新研究背后的团队将其称为下一代的储层计算。

"与储层计算当前的能力相比,我们可以在一小部分时间内使用少得多的计算资源完成非常复杂的信息处理任务。"来自俄亥俄州立大学的物理学家Daniel Gauthier介绍说。

储层计算建立在神经网络--基于生物大脑运作方式的机器学习系统--的理念之上,这些网络经过训练可以在大量的数据中发现模式。例如,向神经网络展示一千张狗的照片,它应该能在下一次看到狗的时候相当准确地识别出来。

储层计算的细节是相当技术性的。从本质上讲,该过程将信息送入一个 "水库",其中的数据点以各种方式连接起来。然后信息被送出水库,进行分析,并反馈给学习过程。

这使得整个过程在某些方面更快,并且更适应学习序列。但它也严重依赖随机处理,这意味着储水池内发生的事情并不清晰。用一个工程术语来说,它是一个 "黑匣子"--它通常有效,但没有人真正知道为什么。

刚刚发表的新论文指出,储层计算可通过消除随机化而变得更有效率。一项数学分析被用来计算出哪些部分实际上对它的工作至关重要,哪些不重要。摆脱这些累赘可以加快处理时间。

最终结果之一是需要更少的 "预热" 时间——就是向神经网络提供训练数据,以使它为任务做好准备的时间或步骤。

"对于下一代储层计算,几乎不需要预热时间。"Gauthier说。

"目前,科学家们必须投入1000或10000个数据点或更多的数据来进行预热。而这都是实际工作中不需要的数据。我们只需要投入一个或两个或三个数据点。"

现在一个需要超算运行数天的任务,使用新系统的标准台式电脑上也许不到一秒就能完成。

根据数据类型,新系统的速度是之前的33到163倍。当训练目标优先考虑准确性时,更新后的模型速度更是快了一百万倍。

下一代的超高效神经网络,已经拉开了时代的大幕。

这项研究发表在《自然通讯》上。

https://www.sciencealert.com/a-new-neural-network-solved-the-hardest-of-maths-problems-a-million-times-faster

支付宝打赏 [x]
您的大名: 打赏金额:
赞一个 (8)