近日,第23届文件和存储技术会议(The 23rd USENIX Conference on File and Storage Technologies)录用结果揭晓,实验室2022级硕士生冯昊(导师姚德中副教授)和2022级博士生田冰(导师刘海坤教授)的论文分别被录用。
冯昊的论文题目为“AegonKV: A High Bandwidth, Low Tail Latency, and Low Storage Cost KV-Separated LSM Store with SmartSSD-based GC Offloading”。KV分离架构因能显著缓解传统LSM树(Log-Structured Merge Tree)的写放大问题而受到广泛关注。但是,KV分离会增加值区域的管理开销,尤其是用于减少冗余空间占用的垃圾回收(GC,Garbage Collection)操作。为此很多工作都在努力优化KV分离的GC机制。然而,实验分析表明,当前基于CPU和I/O开销权衡的优化方案无法同时满足KV分离系统在吞吐率、尾部延迟和空间占用三个方面的性能要求,这一局限性阻碍了这些系统在真实生产环境中的应用。文章提出的AegonKV是一种 “一石三鸟”的解决方案,能全面优化KV分离系统的吞吐率、尾部延迟和空间使用率。AegonKV首先提出了一种基于SmartSSD(智能固态硬盘)的GC卸载机制,在不与前台LSM树竞争带宽或CPU的情况下实现异步GC操作。此外,AegonKV还设计了对卸载友好的数据结构和软硬件协同处理逻辑来应对GC卸载的挑战。实验评估结果表明,与现有的KV分离系统相比,AegonKV实现了1.28-3.3倍的吞吐率提升,显著减少了37%-66%的尾延迟和15%-85%的空间开销。
田冰的论文题目为“Towards High-throughput and Low-latency Billion-scale Vector Search via CPU/GPU Collaborative Filtering and Re-ranking”。高维向量的近似最近邻搜索(Approximate Nearest Neighbor Search, ANNS)已经成为数据库和人工智能基础设施的重要组成部分。规模不断增长的向量数据集在性能、成本和准确性方面对ANNS提出了巨大挑战。现有的ANNS系统都无法同时解决这些问题。为此,文章提出了FusionANNS,一种使用SSDs和入门级的GPU实现的高吞吐、低延迟和低成本的大规模向量检索系统。该系统的核心思想是CPU/GPU的协同过滤和重排序机制,并基于此提出了一种分布在GPU/CPU/SSD上的多层级索引,能够显著减少CPUs和GPU之间的数据传输;提出了启发式重排序机制,以消除重排序过程不必要的I/O和计算;提出了冗余感知的I/O去重,基于优化的数据布局进一步提升了I/O效率。对标最先进的基于SSD的系统SPANN 和 GPU 加速的内存系统RUMMY,FusionANNS 在保证低延迟和高精度的同时,分别最高可提高 13.1 倍和 4.9 倍的QPS,成本效率可提高 8.8 倍和 6.8 倍。
FAST是存储系统领域的顶级会议,也是中国计算机学会(CCF)推荐的A类会议。该会议一直被认为是存储系统领域水平最高的会议之一,在全球范围内享有盛誉。此次FAST’25会议收到投稿167篇,录用率约为21.5%。
(通讯员:冯昊、田冰)