Optimized Bistable Vortex Memory Arrays for Superconducting In-Memory Matrix-Vector Multiplication
Mustafa Altay Karamuftuoglu, Changxu Song, Beyza Zeynep Ucpinar, Sasan Razmkhah and Massoud Pedram
基于以前引入的Bistable Vortex Memory(BVM)作为一种新颖,非易失性,高密度和可扩展的超导体存储器技术,这项工作提出了一种方法,使用BVM阵列来解决数据驱动算法和神经网络中的挑战,特别是专注于矩阵向量乘法(MVM)。 BVM方法引入了一种基于超导体的新型记忆算术方法,通过利用BVM阵列进行内存计算来实现超高速和节能计算。 该设计采用瓷砖倍增结构,其中BVM固有的电流和量子缓冲器(QB)单元结合,将模拟累积电流转换为可变数字单通量量子(SFQ)脉冲。 然后由T1加法器单元处理这些脉冲,该细胞处理二进制添加并携带传播,从而形成一个完整的功能乘数单元。 因此,本文介绍了一个高效的 MVM 架构,该架构在收缩数组配置中使用这些基于 BVM 的乘数来启用并行计算。 一个关键的创新是专门为乘法应用量身定制的优化的BVM阵列结构,涉及与对角连接的Sense Lines(SL)的重组,以减少面积和调整后的输入方案,以提高与通用的BVM阵列设计相比的计算效率。 我们展示了这种方法的功效,4位乘数在20 GHz下工作,延迟为50 ps,MVM结构演示了20 GHz的运行。 此外,我们展示了如何扩展这种乘数设计以支持乘积(MAC)操作。 这项工作通过启用高速内存计算为节能神经网络铺平了道路。
Building upon previously introduced Bistable Vortex Memory (BVM) as a novel, nonvolatile, high-density, and scalable superconductor memory technology, this work presents a methodology that uses BVM arrays to address challenges in data-driven algorithms and neural networks, specifically focusing on matrix-vector multiplication (MVM). The BVM approach introduces a novel superconductor-based methodology for in-memory arithmetic, achieving ultra-high-speed and energy-efficient computation by utilizi...