物理科技生物学-PHYICA

用于神久久啪久久爱2019经形态计算应用的新型记忆电容器件

技术工程 2022-01-30 21:54:20

New memcapacitor devices for neuromorphic computing applications Credit: Demasius,Kirschen & Parkin。为了训练和实现人工神经网络,工程师需要能够执行数据密集型计算的先进设备。近年来,世界各地的研究团队一直在尝试使用不同的方法和设计来制造这种设备。创建这些设备的一种可能方法是实现专门的硬件,神经网络可以直接映射到这些硬件上。例如,这可能需要使用同时执行并行计算的忆阻设备阵列。

马克斯·普朗克微观结构物理研究所和德国初创公司SEMRON GmbH的研究人员最近设计了新的节能记忆装置(即带存储器的电容器),可用于实现机器学习算法。发表在《自然电子》杂志上的一篇论文中,这些设备利用了一种被称为电荷屏蔽的原理。

“我们注意到,除了传统的运行神经网络的数字方法之外,还有大多数记忆方法,只有很少的记忆电容建议,”进行这项研究的研究人员之一Kai-Uwe Demasius告诉TechXplore。“此外,我们注意到,所有商用AI Chips都只是基于数字/混合信号,很少有带有电阻存储器件的芯片。因此,我们开始研究一种基于电容存储器件的替代方法。”

在回顾以前的研究时,Demasius和他的同事观察到,所有现有的memcapacitive器件都很难放大,并且动态范围很差。因此,他们着手开发效率更高、更容易扩大规模的设备。他们创造的新型记忆电容装置从大脑中的突触和神经递质中获得灵感。

Demasius说:“与忆阻器件相比,Memcapacitor器件的能效本质上要高很多倍,因为它们是基于电场的,而不是基于电流的,对于第一种情况,信噪比更好。“我们的记忆电容器件基于电荷屏蔽,与以前实现记忆电容器件的试验相比,它具有更好的可扩展性和更高的动态范围。”

Demasius和他的同事创建的设备通过另一层称为屏蔽层的层来控制顶部栅电极和底部读出电极之间的电场耦合。这个屏蔽层又由一个模拟存储器来调节,它可以存储人工神经网络的不同权重值,类似于大脑中的神经递质如何存储和传递信息。

为了评估他们的设备,研究人员将其中的156个排列成纵横交错的模式,然后用它们来训练一个神经网络,以区分罗马字母表中的三个不同字母(“M”、“P”和“I”)。值得注意的是,他们的器件在8位精度下获得了超过3500托普/瓦的能量效率,这比其他现有的阻性方法大35到300倍。这些发现凸显了该团队的新mem capacitor在以非常低的功耗运行大型复杂深度学习模型方面的潜力(在μW范围内)。

“我们相信下一代人机界面将在很大程度上依赖于自动语音识别(ASR),”Demasius说。“这不仅包括唤醒词检测,还包括更复杂的算法,比如语音到文本的转换。目前,ASR大多在云中完成,但边缘处理在数据保护等方面具有优势。”

如果语音识别技术进一步改进,语音最终可能成为用户与计算机和其他电子设备通信的主要手段。然而,如果没有具有数十亿参数的基于神经网络的大型模型,这种改进将很难或不可能实现。新的设备可以有效地实现这些模型,例如由德马科斯和他的同事开发的设备,因此可以在实现人工智能的全部潜力方面发挥关键作用。

“我们创立了一家初创公司,为这项卓越的技术提供便利,”德马科斯说。“SEMRON的愿景是在非常小的外形上实现这些大型人工神经网络,并以更好的能力甚至能量收集为这些算法提供动力,例如在耳塞或任何其他可穿戴设备上。”

Demasius和他的同事创立的初创公司SEMRON已经申请了几项与语音识别深度学习模型相关的专利。未来,该团队计划开发更多基于神经网络的模型,同时还试图通过提高效率和器件密度来扩大他们设计的基于记忆电容的系统。

“我们一直在为任何与此相关的主题申请专利,”德马科斯说。“我们的最终目标是让每台设备都能够在设备上承载大量的AI功能,在培训或深度学习模型架构方面,我们也设想了很多方法。脉冲神经网络和基于变压器的神经网络只是一些例子。一个优势是我们可以支持所有这些方法,但当然需要不断的研究来跟上该领域的所有新概念。”

来源:由phyica.com整理转载自PH,转载请保留出处和链接!

本文链接:http://www.phyica.com/jishugongcheng/9202.html

发表评论

用户头像 游客
此处应有掌声~

评论列表

还没有评论,快来说点什么吧~