LOGO LOGO
实验室2篇论文被人工智能领域国际会议IJCAI 2023录用
时间:2023-04-24 09:20:32

近日,32届国际人工智能联合会议(International Joint Conference on Artificial Intelligence,IJCAI 2023)录用结果揭晓,实验室20级硕士生陈丽君、硕士毕业生王亿麟(导师均为张腾副教授)2篇论文被录用

陈丽君的论文题目为“Incremental and Decremental Optimal Margin Distribution Learning”。增/减量学习是在训练样本发生动态增/删时快速更新模型的有效手段,现有的研究主要集中在具有线性损失的大间隔模型上,无法应用于性能更为优异的采用了二次损失的间隔分布模型。针对这一问题,文章提出增/减量最优间隔分布学习ID-ODM,可以在训练样本变化时动态更新 ODM (Optimal margin Distribution Machine),避免从头训练,降低计算开销。其基本想法是根据KKT(Karush-Kuhn-Tucker)条件构建待增/删样本与其余样本的拉格朗日乘子需满足的矩阵方程,从而可在前者发生变化时实时更新后者。ID-ODM首先需确定待增/删样本的拉格朗日乘子的更新方向,这可通过分析最终时刻的KKT条件得到。在沿该方向前进时,ID-ODM始终监测KKT条件是否发生变化。当出现变化时,利用Sherman-Morrison-Woodburry公式计算系数矩阵的逆,重新求解方程,实时调整更新方向,直至得到最优解。实验结果表明,ID-ODM能够适用于单样本增/删、多样本同时增删等全部变化场景,更新效率较从头训练模型提升至少3倍,平均超过9.3倍,且几乎不会削弱模型泛化能力。

王忆麟的论文题目为“Scalable Optimal Margin Distribution Machine”。针对线性不可分问题,最优间隔分布学习机需引入非线性核函数,因此时空复杂度都与样本数相关,在大规模数据集上训练效率不高。针对这一问题,文章提出了可扩展最优间隔分布学习机。其基本想法是分而治之,将大数据分成多个小块,在每一块上训练一个局部模型,并不断合并直至得到全局模型。为了加速合并过程,借鉴分层抽样的思想,提出一个全新的保持数据分布的划分方法,以使得每个小块上训练的局部模型都尽可能地和全局模型相似,此外还通过理论分析严格证明了算法的收敛性。实验结果表明,可扩展最优间隔分布学习机可达到近十倍的加速比,显著优于其他分布式学习算法,且几乎不会削弱模型泛化能力。

IJCAI是中国计算机学会(CCF)推荐的人工智能领域A类会议。本届会议共收到4566篇投稿,录用率为15%。


(通讯员:陈丽君、曹楠)