近日,2022级博士生罗子涵(导师黄宏副教授)的论文“Cross-links Matter for Link Prediction: Rethinking the Debiased GNN from a Data Perspective”被人工智能顶会Thirty-seventh Conference on Neural Information Processing Systems(NeurIPS 2023)录用。
论文聚焦于探讨基于图神经网络(Graph Neural Network,GNN)的链接预测中所存在的偏差问题,特别深入研究了GNN在预测“cross-links”(跨越不同社区的链接)时所面临的性能偏差。与以往引入额外的目标函数约束的方法不同,研究观察到现有的GNN模型在“internal-links”(同一社区内的链接)和“cross-links”之间存在着明显的数据偏差。因此,论文采取了一种数据驱动的方法重新审视“cross-links”性能偏差的问题。为此,作者提出了一种简单而高效的孪生结构框架,该框架适用于大多数GNN模型,以减轻这种偏差并提高GNN的性能水平。其核心思想是生成无偏差的节点嵌入向量,然后将这些向量与原始GNN生成的节点嵌入向量融合,以实现性能的提升和去偏。同时,他们设计了一种全新的动态训练策略,以更加高效地将无偏向量与原始向量相结合。在三个不同数据集上的广泛实验验证了该框架的有效性。结果显示,该框架不仅成功地克服了GNN在处理“internal-links”和“cross-links”时的性能偏差,并显著提升了整体预测性能水平。这项研究对于解决链接预测中的性能偏差问题具有重要意义,并为改进现有GNN模型的性能提供了有价值的方法。
NeurIPS是人工智能领域的顶级会议,也是中国计算机学会(CCF)推荐的A类会议,H5指数309。该会议一直被认为是人工智能行业难度最大、理论水平最高的会议之一,在全球范围内享有盛誉。此次NeurIPS 2023会议投稿量12343篇,录用率约为26.1%。
(通讯员:罗子涵)