储备池计算(Resevoir computing),一种模仿人脑运作的机器学习算法,正在彻底改变科学家处理最复杂的数据处理挑战的方式。现在,研究人员发现了一种新技术,可以使其在特定任务上的速度提高100万倍,同时使用更少的数据输入的计算资源。

利用下一代技术,研究人员能够在一台台式电脑上用不到一秒钟的时间解决一个复杂的计算问题,如预测天气等随时间变化的动态系统的演变等。这些系统可能极难预测,“蝴蝶效应”就是一个著名的例子。储备池计算非常适合学习这种动态系统,并能对它们在未来的行为提供准确的预测;然而,系统越大、越复杂,就需要更多的计算资源、人工神经元网络和更多的时间来获得准确的预测。

日前,来自俄亥俄州立大学物理学教授Daniel Gauthier领导的研究小组对储备池计算系统进行了简化,大大减少了对计算资源的需求,并节省了大量时间。根据发表在《自然-通讯》杂志上的研究报告,下一代储备池计算技术明显优于其他技术。

根据数据的不同,新方法被证明能够比上一代技术提升33到163倍的速度。然而,当工作目标被改变为有利于准确性时,新模型的速度提高了100万倍。这种速度的提高是由于下一代储备池计算比前几代需要更少的预热和训练。

Gauthier在一份新闻稿中解释说:“对于我们的下一代储备池计算,几乎不需要预热时间。”目前,科学家们必须投入1000或10000个数据点或更多的数据来进行预热。而这都是丢失的数据,是实际工作中不需要的。最新一代技术只需要放入一个或两个或三个数据点就可以了。

此外,新技术仅用28个神经元就能达到同样的精度,而当前一代模型需要4000个神经元。

研究人员计划在未来针对更困难的任务测试超高效的神经网络,将工作扩展到更复杂的计算机问题,如流体动力学预测。

推荐内容