完全硬件实现的忆阻器卷积神经网络

完全硬件实现的忆阻器卷积神经网络(CNNs)

原文标题:Fully hardware-implemented memristor convolutional neural network
作者:Peng Yao.et al.
期刊:Nature
这篇是2020年初清华大学发表在nature上的文章,当时就看见很多媒体报道,这篇文章也是去年WOS(Web of Science)上忆阻器方面被引次数最多的三篇文章之一(被引45次)。以下只翻译了摘要,后续翻译会更新。

摘要:
忆阻器实现的神经形态计算系统,提供了一种训练神经网络的高速、低功耗的方法。然而,作为图像识别最重要的的模型之一——卷积神经网络(CNNs),还没有用忆阻器交叉开关阵列——一种忆阻器在交点处的交叉点阵列,实现完全硬件化。而且,由于良率低、变化大和器件的其他不理想特性,实现堪比软件CNNs的处理结果是非常有挑战性的。这里,我们报告了高良率、高性能和统一的忆阻器交叉阵列的制造方法,这些阵列是用于实现CNNs的,它们集成了8块2048个单元的忆阻器阵列来提高并行计算的能力。除此之外,我们提出了一种高效的混合训练方法来适应器件的不完美之处,并且提高系统的总体性能。我们建立了一个5层忆阻器CNN网络来实现MNIST图像识别,实现了96%以上的正确率。除了用共享输入的不同内核做并行卷积计算,忆阻器阵列中多个相同内核的复制被证明可以并行处理不同的输入。在能量效率方面,基于忆阻器的CNN神经形态系统比最先进的图像处理单元(GPU)高两个数量级,而且表现出可以拓展为更大的网络,例如残差神经网络。我们的结果有望提供一种可行的用于深度神经网络和边缘计算的硬件解决方案,这种基于忆阻器的方案将没有"冯诺依曼瓶颈"。

猜你喜欢

转载自blog.csdn.net/weixin_45358177/article/details/114004079