记忆处理单元:用忆阻器解决普通计算问题!
导读
近日,美国密歇根大学的科研团队创造出一种在芯片上安放“忆阻器”的新方法,使之可用于通用的计算任务,并将能耗降低至原来的1/100。
背景
如今,大多数的普通计算机都采用的是冯·诺依曼体系结构。在这种体系结构中,CPU与内存是相互分离的。内存用于存储程序指令和数据;CPU用于执行指令和处理相关数据。因此,数据需要在CPU和内存之间来回移动。
但是,CPU的运算速度增长得较快,而内存的访问速度增长得较慢,所以它们之间存在速度不匹配的问题,也就是所谓的“冯·诺依曼瓶颈”。这一瓶颈不仅限制了系统带宽,增加了系统功耗,同时也会进一步增加计算机的成本和体积。
为了突破这一瓶颈,科学家们从人脑结构中获取到灵感。不同于传统的计算机,人脑处于全方位的互联状态,其中的逻辑功能与记忆功能密切关联。科学家称,人脑的存储密度与多样性均是当代计算机的数十亿倍,即使是目前最发达的超级计算机也无法与人脑相提并论。
模仿人脑,科学家们研发出一种新的计算架构:神经形态计算,也称为类脑计算。它旨在模仿大脑处理、加工信息的过程,将用于数据存储与数据处理的元件,整合到同一块芯片中。神经形态芯片的性能更强,效率更高,非常适合人工智能与机器学习算法以及处理大数据问题。
说起神经形态计算,近期有一种新型硬件颇受科学家们追捧,它就是忆阻器。其英文名 “Memristor” ,是“记忆”(Memory)和“电阻”(Resistor)两个词的混成词。忆阻器可设置为不同的电阻状态,以不同的电阻等级来存储信息。
(图片来源:Wei Lu)
通过忆阻器,数据的存储和处理功能可以在同一个设备上实现,从而突破了传统计算机中存在的数据传输瓶颈。科学家们认为,忆阻器非常有希望应用于下一代的神经网络和神经形态计算。由于无需反复移动数据,且可并行地处理大量信号,所以忆阻器也特别适合用于人工智能与机器学习系统。
创新
近日,美国密歇根大学电气与计算机工程系教授、忆阻器创业公司 Crossbar Inc 的联合创始人 Wei Lu 领导的科研团队,创造出一种在芯片上安放“忆阻器”的新方法,使之可用于通用的计算任务,并将能耗降低至原来的1/100。
忆阻器阵列的电子显微镜图像
(图片来源:Yeonjoo Jeong / 密歇根大学纳米电子小组)
技术
普通的比特数据(0或1)是离散的,但是忆阻器的电阻值却是连续的。某些应用,例如类脑(仿神经)计算,利用了忆阻器的模拟特性。但是,在普通的计算中,尝试区分流过忆阻器设备的电流的微小变化,无法足够精准地用于数值计算。
Lu 及其同事通过数字化处理电流输出来解决这一问题。他们将电流范围定义为特殊的比特值(例如:0或1)。此外,团队也可以将大型数学问题映射到阵列中更小的区块上,从而改善系统的效率和灵活性。
这些新型区块被研究人员称为“记忆处理单元”(memory-processing units)。具有“记忆处理单元”的计算机非常适合实现机器学习和人工智能算法,也很适合基于矩阵运算的任务,例如用于天气预报的仿真。最简单的数学矩阵,就像具有行列数据的表格,可以直接映射到忆阻器网络上。
一旦采用忆阻器代表数字,我们就可以沿着行施加一组电压脉冲,同步展开行与列相乘与相加的运算。在每列的一端测量到的电流中就包含着运算结果。相比之下,传统的处理器,必须读出矩阵中每个单元的值,进行乘法运算,然后再将每一列的值加到一起。
电路板上的忆阻器阵列
(图片来源:Mohammed Zidan / 密歇根大学纳米电子小组)
价值
Lu 表示:“我们只用一步就实现了相加与相乘。它是通过物理定律来实现的。我们不需要在处理器中进行手动地相乘与相加。”
他的团队通过解偏微分方程,来测试这个32x32的忆阻器阵列。Lu 将它想象为未来系统的一个区块。这些方程式,其中也包括天气预报背后的那些方程式,是许多科学与工程问题的基础,但是却非常难以求解。难度在于建模物理现象所需的复杂程式和多个变量。
精准地求解偏微分方程几乎是不可能的,但是可以通过超级计算机近似地求解。这些问题通常需要巨大的数据矩阵,然而忆阻器阵列恰好突破存储器与处理器之间的通信瓶颈恰。Lu 的团队在他们的演示中采用这些方程式模拟了等离子体反应器,比如用于集成电路制造的那些。
根据密歇根大学研究人员的说法,这项技术将用于改善低功率电子设备例如智能手机的性能,或者用于制造更加高效的超级计算机。
关键字
参考资料
【1】https://news.umich.edu/memory-processing-unit-could-bring-memristors-to-the-masses/
【2】http://dx.
了解更多前沿技术,请点击“阅读原文”。