一种新型的大脑启发式AI学习方法可节省内存和能量

2020-07-28 15:16:17爱云资讯

尽管经常进行类比,但当今的AI的工作原理与人脑的原理截然不同。现在,研究人员提出了一种与生物学联系更紧密的新学习方法,他们认为这可以帮助我们达到大脑无与伦比的效率。

一种新型的大脑启发式AI学习方法可节省内存和能量

现代深度学习至少是受生物学启发的,以被称为神经元的单个计算单元的大型网络之间的连接强度来编码信息。不过,最大的区别可能是这些神经元相互交流的方式。

人工神经网络被组织成层,每个神经元通常连接到下一层中的每个神经元。信息以高度同步的方式在层之间传递,因为数字落在确定神经对之间的连接强度的范围内。

另一方面,生物神经元通过发射称为尖峰的电脉冲进行交流,每个神经元都按照自己的时间表进行交流。连接并没有整齐地分成几层,并具有许多反馈回路,这意味着神经元的输出通常最终会影响其输入。

这种基于峰值的方法在能源效率上要高得多,这就是为什么训练最强大的AI需要几千瓦的电能,而大脑只需要20瓦。这引起了人们对人工增幅神经网络以及所谓的神经形态硬件(模仿大脑的物理组织和原理)的计算机芯片的开发的兴趣,这种计算机芯片可以更有效地运行它们。

但是,我们对这些基于尖峰的方法的理解仍不完善,它们难以达到更常规的人工神经网络的性能。不过,如今,来自奥地利格拉茨工业大学的研究人员认为,他们可能已经找到了一种利用与峰值神经网络一起工作的生物似然学习方法来发挥深度学习能力的方法。

在深度学习中,通过使网络对数据进行预测然后评估距离有多远来对网络进行训练。然后,该错误会通过网络反馈回来,以指导神经元之间连接强度的调整。此过程称为反向传播,经过多次迭代将调整网络,直到做出准确的预测为止。

可以将类似的方法应用于尖峰神经网络,但是它需要大量的内存。显然,这不是大脑解决学习问题的方法,因为它要求错误信号在时间和空间上通过神经元之间的突触向后发送,这显然是不可能的。

这促使研究人员,谁是人脑项目的一部分,来看看两个特征,已成为实验神经科学中的数据清楚:每个神经元保持小号先前活动的存储器中的分子标志物的形式,随着时间慢慢淡化;和大脑提供自上而下的使用像神经递质多巴胺调节学习信号S ^神经元群的行为。

在纸张自然传播,在奥地利队描述了小号他们是如何创建d的这两个特点的人工类似物来创建他们称之为E-道具一个新的学习模式。尽管该方法的学习速度比基于反向传播的方法要慢,但可以实现可比的性能。

更重要的是,它允许在线学习。这意味着,无需立即处理大量数据(这需要不断地往返于内存进行传输,而这对机器学习的能源费用做出了重大贡献),该方法只是从可用的数据中学习。这极大地减少了所需的内存和能量,这使得在较小的移动设备中进行片上学习变得更加实用。 人工智能

相关文章
精彩评论
热门文章
头条文章
重点文章
推荐文章
热点文章
关于我们|联系我们|免责声明