LOGO LOGO
博士生任昆仑和胡雨涛的论文均被软件工程领域顶会ISSTA 2023录用
时间:2023-05-12 08:50:37

近日,软件工程顶会 ACM SIGSOFT International Symposium on Software Testing and Analysis(ISSTA 2023)录用结果揭晓,实验室博士生任昆仑(导师羌卫中教授)和胡雨涛(导师邹德清教授)的论文均被录用。

任昆仑的论文题目为“An Empirical Study on the Effects of Obfuscation on Static Machine Learning-based Malicious JavaScript Detectors”。机器学习正越来越多地被应用于恶意JS代码检测。恶意脚本为了隐藏恶意行为,良性脚本为了保护知识产权,在上传前都倾向于在上传前混淆自己的代码。这会引入了一些额外的代码特征,从而影响机器学习检测器。然而,对于现有的基于机器学习的检测器在不同混淆代码上的鲁棒性仍然缺乏清晰的认识。论文开展了一个实证研究,以弄清混淆如何影响基于静态特征的机器学习检测器。论文发现:1)混淆导致检测器的假阴性率和假阳性率大幅增加,训练集中混淆的偏向会诱导检测器检测混淆而不是恶意特征。2)添加相关的混淆样本、利用最先进的深度学习模型、提高训练集的质量等抗混淆措施都不能很好地发挥作用。3) 混淆对这些检测器的影响的根本原因是,其使用的特征空间只能反映代码中的浅层差异,而不能反映良性和恶意的本质。4)混淆对VirusTotal中的检测器也有类似的影响。

胡雨涛的论文题目为“Interpreters for GNN-based Vulnerability Detection: Are We There Yet? ”。 基于深度学习的漏洞检测方法日益成熟,尤其基于图神经网络(GNN)的漏洞检测方法已经取得了显著的成果。然而, GNN模型接近于黑箱,所以模型无法提供明确的证据解释为什么一个代码片段被检测为有漏洞的或安全的。目前,许多GNN解释器已经被提出,但是它们提供的解释结果非常不一致,换句话说,这些解释结果对安全专家而言是缺乏说服力的。为了解决上述问题,论文提出了一套原则性的指导方针,以系统评估基于GNN的漏洞检测器的解释方法的解释质量,其依据是漏洞检测领域所着重关心的问题,即稳定性、稳健性和有效性。论文进行了大量的实验评估六个应用广泛的GNN模型解释器(即GNN-LRP、DeepLIFT、GradCAM、GNNExplainer、PGExplainer和SubGraphX)在四个常用的漏洞检测器(即DeepWukong、Devign、IVDetect和Reveal)上的解释性能。实验结果显示,目前GNN解释器在有效性、稳定性和鲁棒性方面的表现都很差。在有效性而言,我们发现实例无关的解释方法因为其对检测模型的深入洞察而优于其他方法。在稳定性方面,基于扰动的解释方法对模型参数的轻微变化更不敏感,因为它们是模型无关的。在稳健性方面,实例无关的方法对相似漏洞提供了更一致的解释结果。

ISSTA是软件测试与分析领域的CCF A类国际会议,近年来录用率为23%左右。


(通讯员:任昆仑、胡雨涛)