一种新型的大脑启发式AI学习方法可节省内存和能量
2020-07-28 15:16:17AI云资讯1201
尽管经常进行类比,但当今的AI的工作原理与人脑的原理截然不同。现在,研究人员提出了一种与生物学联系更紧密的新学习方法,他们认为这可以帮助我们达到大脑无与伦比的效率。

现代深度学习至少是受生物学启发的,以被称为神经元的单个计算单元的大型网络之间的连接强度来编码信息。不过,最大的区别可能是这些神经元相互交流的方式。
人工神经网络被组织成层,每个神经元通常连接到下一层中的每个神经元。信息以高度同步的方式在层之间传递,因为数字落在确定神经对之间的连接强度的范围内。
另一方面,生物神经元通过发射称为尖峰的电脉冲进行交流,每个神经元都按照自己的时间表进行交流。连接并没有整齐地分成几层,并具有许多反馈回路,这意味着神经元的输出通常最终会影响其输入。
这种基于峰值的方法在能源效率上要高得多,这就是为什么训练最强大的AI需要几千瓦的电能,而大脑只需要20瓦。这引起了人们对人工增幅神经网络以及所谓的神经形态硬件(模仿大脑的物理组织和原理)的计算机芯片的开发的兴趣,这种计算机芯片可以更有效地运行它们。
但是,我们对这些基于尖峰的方法的理解仍不完善,它们难以达到更常规的人工神经网络的性能。不过,如今,来自奥地利格拉茨工业大学的研究人员认为,他们可能已经找到了一种利用与峰值神经网络一起工作的生物似然学习方法来发挥深度学习能力的方法。
在深度学习中,通过使网络对数据进行预测然后评估距离有多远来对网络进行训练。然后,该错误会通过网络反馈回来,以指导神经元之间连接强度的调整。此过程称为反向传播,经过多次迭代将调整网络,直到做出准确的预测为止。
可以将类似的方法应用于尖峰神经网络,但是它需要大量的内存。显然,这不是大脑解决学习问题的方法,因为它要求错误信号在时间和空间上通过神经元之间的突触向后发送,这显然是不可能的。
这促使研究人员,谁是人脑项目的一部分,来看看两个特征,已成为实验神经科学中的数据清楚:每个神经元保持小号先前活动的存储器中的分子标志物的形式,随着时间慢慢淡化;和大脑提供自上而下的使用像神经递质多巴胺调节学习信号S ^神经元群的行为。
在纸张自然传播,在奥地利队描述了小号他们是如何创建d的这两个特点的人工类似物来创建他们称之为E-道具一个新的学习模式。尽管该方法的学习速度比基于反向传播的方法要慢,但可以实现可比的性能。
更重要的是,它允许在线学习。这意味着,无需立即处理大量数据(这需要不断地往返于内存进行传输,而这对机器学习的能源费用做出了重大贡献),该方法只是从可用的数据中学习。这极大地减少了所需的内存和能量,这使得在较小的移动设备中进行片上学习变得更加实用。
相关文章
- 法大大×致远互联丨重磅发布!AI驱动合同全生命周期智能管理新范式
- “AI拉动云”飞轮效应凸显 金山云打开智算云增长天花板
- 2026 NVIDIA GTC 圆满落幕:阿丘科技携 Factory AI 亮相 GTC
- 大模型智能体行业元年来临,腾讯/阿里/微美全息集体锁定AI+Agent高增长赛道!
- 技嘉AI TOP ATOM携手AIMA打造桌面级AI落地新范式
- 任泽平年度预测演讲重磅收官,欧定成“AI改变生活”唯一服装案例
- AI协同重塑创作逻辑,灵狐AI视频平台解锁电商营销高效增长密码
- 从Office AI到AI Office,金山办公汪大炜解读WPS超大规模AI办公基建布局
- 暗壳AI Agent2.0发布!人人可用的空间智能设计Agent
- 把尾货卖到50亿,好特卖靠AI算法,拿捏情绪经济
- 全栈AIInfra护航,青云智算出席出海产业链研讨会
- QQ开启AI社区运营新时代,腾讯频道Skill正式上线
- Soul App 2025年度生态安全报告:AI助力社交元宇宙安全建设
- 旷视获广东联通三项殊荣,深化“AI+终端”产业协同
- AI与出海双轮驱动,找钢网集团升级为AI驱动的全链路科技服务平台
- Soul App社交元宇宙安全体系再升级:年度生态安全报告解读AI治理实践









