IBM研究员和最近当选的IEEE Fellow Abu Sebastian就内存计算以及为什么他的职业生涯一直致力于重新定义计算机系统的架构进行了问答。
如果没有计算机,我们的现代世界将是不可想象的。我们所做的一切,从查看天气和浏览社交媒体,到制造商品和经营企业,都依赖于几十年前开始出现的技术。今天的数字计算机确实是根据数学家约翰·冯·诺依曼(John Von Neumann)在20世纪40年代提出的设计原则建造的。在冯·诺依曼的体系结构设计中,数据处理发生在中央处理器(CPU)中,数据和程序被限制在物理上分离的硬件中,称为内存。
冯·诺依曼架构在当时被证明优于替代模型,但随着AI快速发展,它的缺点变得越来越明显。当执行AI计算时,在内存和CPU之间来回穿梭数据需要在能耗和速度方面付出很高代价。这在训练需要频繁更新模型参数的深度学习模型时尤其明显。
鉴于这一轮AI热潮,IBM研究人员正在寻找更适合AI工作负载要求的替代硬件架构。其中的一个模板是人脑,它本身是一个极其复杂但高效的计算设备。我们大脑平均功耗仅约20瓦,在以最小的能量成本解决复杂任务时表现出色。
模仿大脑的最有前途方法之一是内存计算(IMC)。其背后的想法很简单,但却很强大:操作在内存本身中执行,而不是为内存和处理设置不同的隔间。这消除了不断移动数据的需要,并提供了对存储数据的更快访问。实现IMC的一种方法是建立一个“导线”交叉阵列,每个交叉点代表一个记忆存储单元。选择合适的材料至关重要,制造导线的一种受欢迎的候选材料是相变材料(phase-change material)。它们的电阻可以通过加热或冷却来改变,可使材料从高导电的晶体结构转变为绝缘的非晶原子结构。
最近,IBM研究员Abu Sebastian因在内存计算领域的重大贡献而被任命为IEEE fellow,并为我们分享了他对自己职业生涯的想法,内存计算的现状,以及对技术发展方向的看法。
内存计算与传统数字计算机的工作方式有什么不同?
我们当前的计算范式正在努力应对两个趋同的趋势:传统半导体缩比定律的放缓和AI的爆炸式增长,AI正受到深度学习等计算密集型算法的推动。这带来了两大挑战:快速增长的能耗和计算延迟的停滞。
解决这些问题有一种紧迫感,内存计算可提供一条前进道路。当谈到能源效率时,答案自然是人类大脑,这是一个非凡的信息处理引擎,消耗的能量像灯泡一样少。在这种情况下,大脑处理信息的方式有两个特点特别吸引人。首先,大脑中的神经元和突触权重是固定的,数据通过物理连接的神经网络流动。第二,突触权重和激活传播都是在模拟域中以有限的算术精度执行的。这两个属性构成了内存计算的基础,我们利用内存器件的物理属性及其组织来执行近似计算,通常是在模拟域中。
内存计算有助于克服“内存墙”?
在传统的数字计算机中,内存和处理之间存在物理隔离,这意味着数据需要在两个单元之间来回传输。这些年来,处理单元的速度越来越快,能效也越来越高,而内存访问和数据传输却远远落后,以至于即使处理过程不消耗任何能源,我们仍然要耗费大量的能源和时间来来回回地访问和移动数据,这被称为记忆墙(memory wall)。顾名思义,内存计算通过在内存本身中进行计算来直接解决这个问题。
内存计算最有前途的实现是什么?
内存计算通常在同一个内存芯片上执行,有时也指一些数字逻辑操作就在内存块旁边执行的方法。在内存计算的狭义版本中,我们在内存中集体执行计算,而不必读回单独的内存内容。在这一类别中,最先进的一种使用基于静态随机存取存储器(SRAM)的计算元件。然而,SRAM是易失性的,这意味着它在断电时会丢失存储的信息。此外,对于SRAM,拥有千兆字节的片上存储容量将是一个挑战。
相比之下,PCM和电阻随机存取存储器(RRAM)即使在断电时也能存储信息,并有可能提供更高的面密度。然而,一个真正的游戏改变者将是:如果一些3D内存可以用于内存计算,这将显著增加权重容量。
内存计算在今天处于什么位置?
无论是在学术界还是工业界,内存计算都是一个非常活跃的研究领域。主要的电子会议,如ISSCC会议、IEDM会议和超大规模集成电路会议,都定期举行多个关于内存计算的会议。AI的爆炸式增长也推动了IMC研究。内存计算的大部分初始工作都是基于模拟、单一器件数据或小型测试芯片。最近,我们已经看到越来越复杂、完全集成的芯片,包括在IBM人工智能硬件中心设计和制造的芯片。甚至有一些初创公司展示了一些令人印象深刻的原型。
内存计算未来5-10年走向?有哪些挑战?
在未来几年,预计内存计算会有更多的技术进步,例如提高的计算精度和计算密度、高度优化的外围电路,以及优化架构的计算系统,其IMC内核与单个系统中的其余数字计算模块有效集成。
最大的挑战将是破坏过去半个世纪建立起来的现有硬件和软件基础设施。然而,我们已经到了需要尝试颠覆性想法的时候了,这不仅是为了降低计算的能源成本,也是为了实现新的应用。例如,如果我们的手机可以在不访问云资源的情况下实时翻译多种语言,或者如果我们可以在烤面包机上运行像GPT-3这样的大型语言模型,就像Geoff Hinton最近建议的那样,结果会怎么样?自动驾驶、机器人、金融和医学等领域都将受益于这些能力。IMC也适合超越深度学习的新AI范式,这就是为什么我对IMC的未来相当乐观。
内存计算是一个多学科领域,有许多有趣的问题需要解决。我强烈鼓励进入该领域的年轻研究人员首先就基本的开放性问题进行自我教育,并试图解决这些问题,而不是瞄准可能引人注目的贡献,从长远来看,这些贡献可能对该领域没有什么影响。
原文链接:
https://research.ibm.com/blog/abu-sebastian-ieee-in-memory-computing
—煤油灯科技victorlamp.com编译整理—
版权声明:本文内容转自互联网,本文观点仅代表作者本人。本站仅提供信息存储空间服务,所有权归原作者所有。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至1393616908@qq.com 举报,一经查实,本站将立刻删除。