其他
Nature重磅:用“光”加速AI,基于光的并行卷积神经网络有望彻底“变革”AI硬件
但是,持续增加的数据量在为 AI 提供源源不断的“动力”的同时,也对用于 AI 的电子计算硬件提出了更多的挑战,无论是在计算速度,还是在功耗方面,都已经成为严重制约 AI 发展的主要瓶颈之一。
如今,随着用于自动驾驶汽车和语音识别等机器学习方法的出现,这种数据增加的上升趋势仍将继续下去。所有这些,都给当前的计算机处理器在满足人们需求方面带来了沉重的负担。
好在,一个由多国科学家组成的团队已经开始着手解决这个问题。最新研究进展以“Parallel convolutional processing using an integrated photonic tensor core”为题,于 1 月 6 日发表在顶级科学期刊《自然》(Nature)上。
研究人员表示,通过这种利用光的独特属性来加速 AI 处理的方式,可能会加速光学计算领域的变革。
为了加速人工神经网络的处理,人们已经做出了各种努力来设计和实现特定的电子计算系统。特别值得一提的是,人们在专用集成电路、大脑灵感计算和内存计算等定制芯片的应用上,已经取得了相当大的成功,这些芯片通过一系列称为忆阻器的内存设备直接进行处理。
这种以光速传播信息的方式能达到目前最小的时间延迟。此外,无源传输有助于实现超低功耗,而相位调制可以轻松调制并检测出频率高于 40 千兆赫的光。
在过去的几十年里,光纤通信取得了巨大的成功。然而,使用光子进行计算仍然具有一定的挑战性,特别是在规模和性能水平上,其与最先进的电子处理器相比更具挑战性。这一困难来自于缺乏合适的并行计算机制、使用材料来允许人工神经元的高速非线性响应以及可扩展的光子器件来集成到计算硬件中。
幸运的是,过去几年来,光学频率梳(Optical Frequency Combs)的发展为集成光子处理器带来了新的机会。光学频率梳是一组光源,其发射光谱由数千或数百万条频率均匀且间隔紧密的清晰谱线组成。这些器件在光谱学、光学时钟计量和电信等领域取得了巨大的成功,其可以集成到计算机芯片中,并用作光学计算的高效能源,非常适合采用波分复用技术(WDM)进行数据并行处理。
通过波长复用,该处理器可以对输入数据进行充分的并行化处理,并利用相变材料的集成单元阵列进行类似的矩阵矢量乘法运算。
该研究的负责人之一、EPFL 的 Tobias Kippenberg 教授说:“我们的研究首次将频率梳应用于人工神经网络领域。” Kippenberg教授在频率梳发展方面做出开创性的研究工作。
同时,该研究的负责人之一、明斯特大学(WWU)的 Wolfram Pernice 教授也表示:“在机器学习领域,用于加速任务的光子处理器使复杂的数学任务能够以很高的速度和处理量处理,这比依赖电子数据传输的传统芯片快得多。”
在设计和制造完光子芯片后,研究人员在一个可识别手写数字的神经网络上对其进行了测试。这些网络受到生物学的启发,是机器学习领域的一个概念,主要用于图像或音频数据的处理。
牛津大学的 Nathan Youngblood 认为,“利用波分多路复用可以实现更高的数据速率和计算密度,也就是处理器单位面积上的操作,这是以前无法实现的。”
这种高度并行化的框架,有可能在单个步骤中高速处理整个图像。在不久的将来,该系统可以通过使用商业制造程序和辅助现场机器学习来进行大规模扩展。
鉴于传统电子计算方法面临的挑战,集成光子学的出现是令人兴奋的。它作为一个潜在的“接班人”,为未来的计算架构实现前所未有的性能。
然而,建造一个实用的光学计算机仍将需要广泛的跨学科努力和材料科学、光子学、电子学等领域的研究人员之间的合作。
https://www.nature.com/articles/s41586-020-03070-1
https://www.nature.com/articles/d41586-020-03572-y
https://techxplore.com/news/2021-01-machine-paper-photonic-ai.html