LOGO LOGO
博士生李会则、刘聪、段卓辉的三篇论文均被设计自动化领域顶会DAC 2022录用
时间:2022-03-03 14:59:09

近日,2022年国际设计自动化会议(Design Automation Conference,DAC 2022)录用结果揭晓,实验室博士生李会则(导师金海教授)、刘聪(导师金海教授)、段卓辉(导师刘海坤教授)的三篇论文均被录用。李会则的论文题目为“ReSMA: Accelerating Approximate String Matching Using ReRAM-based Content Addressable Memory”,刘聪的论文题目为“ReGNN: A ReRAM-based Heterogeneous Architecture for General Graph Neural Networks”,段卓辉的论文题目为“CLIMBER: Defending Phase Change Memory Against Inconsistent Write Attacks”。

近似字符串匹配作为数据清理、信息检索和生物序列分析等大量字符串处理应用的基础操作,其重要性不言而喻。而现有基于冯诺依曼架构的近似字符串处理加速器在处理大规模数据集时通常会产生大量的中间数据,由此带来了大量片外数据传输从而严重影响加速器性能。为此,李会则博士在论文中提出了ReSMA(ReCAM-based PIM-featured ASM Accelerator),一个全新的基于ReRAM和ReCAM阵列的近似字符串匹配加速器。为了实现使用内存计算消除字符串匹配中大量片外传输的问题,设计了一种新的基于ReCAM阵列的内存过滤器,并为此过滤器设计了专门的过滤算法来应对当前ReCAM阵列无法高效进行字符串过滤的问题。也提出了一种全新的基于ReRAM阵列的编辑距离计算方法,此方法可以解决当前ReRAM阵列与编辑距离计算之间计算模式不匹配的问题。实验结果显示,ReSMA在与当前性能最好的基于CPU、GPU、FPGA、ASIC和PIM的近似字符串加速器相比,分别能获得268.7倍、38.6倍、20.9倍、707.8倍和14.7倍的性能提升。此外,与上述平台对比,ReSMA同时可以达到153.8倍、42.2倍、31.6倍、18.3倍和5.3倍的能耗节省。

图神经网络(GNN)同时具有图处理和神经网络(NN)的计算特性,传统的图加速器和 NN加速器无法同时满足 GNN 应用的双重计算需求。为此,刘聪博士在论文中分析了新兴的GNN推理的计算瓶颈,并提出了基于ReRAM的存内处理(PIM)架构用于GNN加速,称为ReGNN。该架构主要由用于加速矩阵向量乘法(MVM)操作的APIM模块和用于加速非MVM聚合操作的DPIM模块组成。以聚合操作中常见的MAX运算为例,提供了DPIM中详细的数据映射和数据处理步骤。同时,为了提高数据并行性,ReGNN 根据顶点的度数和特征向量的维度在聚合引擎中设计了顶点调度器,将数据映射到相应的聚合子引擎。基于两个经典的GNN模型和4种数据集对ReGNN进行了实验评估,实验结果表明,与GPU和基于ReRAM的GNN加速器ReGraphX相比,ReGNN将GNN推理速度分别提高了228倍和8.4倍,能耗降低了305.2倍和10.5倍。

近年来,非易失存储器在兼顾价格和能耗的同时,显著增大了主存容量。然而,非易失存储器较低的写寿命导致其更易受到磨损攻击的破坏,其工艺差异导致的内部不同单元的寿命差异更加剧了这一问题。不一致写入攻击通过设计相反的写流量来误导磨损均衡策略,并对弱单元进行磨损攻击,可在很短时间内将非易失性存储器写坏。为此,段卓辉博士在论文中对现有的针对相变存储器(PCM)的不一致写入磨损攻击防御策略进行了比较研究,在总结以往工作不足的基础上,设计了一种新的磨损攻击防御机制。论文提出了一种基于热度预测的细粒度地址重映射机制,能够动态纠正被恶意流量误导的地址映射,从而实现对弱单元的保护。与现有研究相比,所提出的防御策略可以将PCM在攻击下的寿命提高75.9%,并降低82%的页面交换开销。

DAC是设计自动化领域的顶级国际会议,是中国计算机学会(CCF)推荐的A类会议。本届会议共收到970篇投稿,共录用223篇论文,录用率约为23%。


(通讯员:李会则、刘聪、段卓辉)