翼猫科技获数千万元A轮融资,量子资本领投
06-18
很多小朋友可能不知道忆阻器是什么?在开始今天的话题之前,雷锋网小编先科普一下什么是忆阻器。
所谓忆阻器,全称记忆电阻(Memristor),是继电阻、电容、电感之后的第四种基本电路元件。
它表示磁通量与电荷之间的关系。
该元件的电阻会随着它的通过而变化。
电流量发生变化,即使电流停止,其电阻仍将保持先前的值。
直到收到反向电流才会被推回去,相当于说它能“记住”之前的电流量。
简而言之,忆阻器(memristor)在电源关闭后仍能“记忆”经过的电荷。
这一特性与神经突触的相似性使其能够自主学习。
潜在的。
因此,基于忆阻器的神经拟态计算系统可以为神经网络训练提供一种快速、节能的方法。
然而,图像识别模型之一的卷积神经网络尚未在使用忆阻器交叉阵列的硬件中完全实现。
不过,雷锋网近日获悉,清华大学微电子研究院、钱鹤、未来芯片技术高精尖创新中心、吴华强的教授团队和合作者学院在《自然》 研究论文报告了基于忆阻器阵列芯片的卷积网络的完整硬件实现。
他们提出使用高能效、高性能的均匀忆阻器交叉阵列来实现CNN。
该实现总共集成了8个PE,每个PE包含1个单元的忆阻器阵列,以提高并行计算效率。
此外,研究人员还提出了一种高效的混合训练方法,以适应设备缺陷并提高整个系统的性能。
研究人员构建了基于忆阻器的五层CNN来执行MNIST图像识别任务,识别准确率超过96%。
除了使用不同的卷积核对共享输入执行并行卷积之外,忆阻器阵列还复制多个相同的卷积核来并行处理不同的输入。
与当前最先进的图形处理单元(GPU)相比,基于忆阻器的CNN神经拟态系统的能效更高一个数量级,并且实验表明该系统可以扩展到大型网络,例如残差神经网络。
研究结果可能会带来基于忆阻器的非冯诺依曼硬件解决方案,用于深度神经网络和边缘计算,在处理卷积神经网络(CNN)时比图形处理器芯片更节能。
(GPU)高出两个数量级,极大地提高了计算设备的计算能力,以更小的功耗和更低的硬件成本成功完成复杂的计算。
第一个完全基于忆阻器的 CNN 硬件实现。
据介绍,目前国际忆阻器研究还停留在简单网络结构的验证,或者基于少量器件数据的模拟。
基于忆阻器阵列的完整硬件实现仍然存在许多挑战。
比如在器件方面,需要准备高度一致、可靠的阵列;在系统方面,忆阻器由于其工作原理而存在固有的缺陷(如器件之间的波动、器件电导停滞、电导状态漂移等),这会导致计算精度降低。
;在架构上,忆阻器阵列需要以串行滑动的方式连续采样计算多个输入块来实现卷积功能,无法与全连接结构的计算效率相匹配。
在这些研究成果的基础上,钱赫和吴华强团队逐步优化了材料和器件结构,制备出了高性能忆阻器阵列。
在设备端,研究成功实现了完整的五层 mCNN,用于执行 MNIST 手写数字图像识别任务。
优化的材料堆栈可在单晶体管单忆阻器 (1T1R) 阵列中实现可靠且一致的模拟开关行为。
使用本研究提出的混合训练机制后,实验在整个测试集上实现了 96.19% 的识别准确率。
mCNN 是使用混合训练方法获得的。
此外,该研究在三个并行忆阻器卷积器中复制了卷积核,从而将 mCNN 的延迟减少了大约 2/3。
本研究获得的高度集成的神经拟态系统弥补了基于忆阻器的卷积运算和全连接VMM之间的吞吐量差距,从而为大幅提高CNN效率提供了可行的解决方案。
从架构上讲,以前基于忆阻器的演示依赖于单个阵列,这主要是由于生成高度可重复的阵列面临巨大挑战。

忆阻器器件的易失性和不完美性被认为是神经形态计算应用的主要瓶颈。
本研究提出了一种适用于神经网络的基于忆阻器的灵活计算架构。
存储与计算集成系统架构忆阻器单元采用TiN/TaO_x/HfO_x/TiN材料堆叠。
通过调节电场和热量,它在增强(SET)和抑制(RESET)条件下都表现出连续的电导率调节能力。
。
该材料和制造工艺与传统的CMOS工艺兼容,使得忆阻器阵列可以轻松构建到晶圆的后端工艺中,以减少工艺变化并实现高再现性。
由此产生的交叉开关阵列在相同的编程条件下具有统一的模拟开关行为。
因此,多忆阻器阵列硬件系统是基于定制印刷电路板(PCB)和FPGA评估板(ZC,Xilinx)构建的。
在系统方面,该系统主要包含8个基于忆阻器的处理元件(PE)。
每个 PE 都集成了忆阻器单元阵列。
每个忆阻器都连接到晶体管的漏极侧,采用 1T1R 配置。
核心 PCB 子系统具有八个忆阻器阵列芯片,每个芯片都有 × 16 1T1R 单元。
水平方向总共有平行的字线和源极线,垂直方向总共有16条位线。
基于忆阻器的硬件系统具有可靠的多级导电状态。
该阵列表现出高度可重复的多级导电状态,成功证明了集成存储和计算架构的全硬件实现的可行性。
有什么优点?众所周知,CNN是最重要的深度神经网络之一,在图像识别、图像分割、目标检测等图像处理相关任务中发挥着关键作用。
CNN 的典型计算步骤需要大量的滑动卷积运算。
从这个方面来看,CNN需要支持并行乘法累加运算(MAC)的计算单元。
这需要重新设计传统的计算系统,以运行具有更高性能和更低能耗的 CNN。
这些计算系统包括通用应用平台(如GPU)、专用加速器等。
然而,计算效率的进一步提升最终受限于系统的冯诺依曼架构,其中内存和处理单元在物理上是分离的,导致大量的能源消耗和不同单元之间数据传输的高延迟。
相比之下,基于忆阻器的神经拟态计算可以提供存储数据的非冯诺依曼计算范式,从而消除数据迁移的成本。
忆阻器阵列直接使用欧姆定律进行加法运算,使用基尔霍夫定律进行乘法运算,从而实现并行内存MAC运算来模拟内存计算。
),并实现速度和能源效率的显着提高,并减少错误。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-18
06-17
06-08
06-17
06-18
06-18
06-18
06-17
06-17
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态