智能与分布计算实验室
 

【喜报】实验室6篇论文被AAAI 2026录用!
时间:2025-11-26


  热烈祝贺孔令晓、李亦晨、张桢毓、秦祺钰、阎庆阳等老师和同学的6篇论文被AAAI 2026录用!

  第40AAAI人工智能大会 (The 40th Annual AAAI Conference on Artificial Intelligence (AAAI 2026)) 论文录用结果近日揭晓,IDC实验室共有6篇论文获得录用(含3Oral论文),其中孔令晓同学1篇(Oral),李亦晨同学2篇,张祯毓同学1篇,秦祺钰同学1篇(Oral),阎庆阳同学1篇(Oral)。

1.实验室2018级直博生孔令晓同学的论文Backdooring RationalizationAAAI 2026大会录用为Oral论文。论文在李瑞轩、王号召等老师的指导下完成。该论文探讨了合理化模型对后门攻击的鲁棒性。我们发现,传统的后门攻击技术无法将触发器注入到合理化模型中,因为其结构天然地可以过滤触发器。因此,论文提出一种专门为合理化模型设计的新型后门攻击方法,核心思想是搜索每个特定数据集的个性化触发器,确保触发器嵌入以影响解释和预测,引入了一种新的理论损失来监督解释生成过程,通过中毒优先采样策略控制样本学习的顺序。论文信息如下:

Lingxiao Kong, Jiahui jiang, Wenchao Xu, Lei Wu. Backdooring Rationalization. The 40th AAAI Conference on Artificial Intelligence (AAAI 2026), Singapore , January 20–27, 2026. (Oral)


2.实验室2023级直博生李亦晨同学的论文Data-Centric Sequential Recommendation with Relation-Augmented Generation被大会录用。论文在李瑞轩,王号召,张瑞等老师的指导下完成。该论文提出了一种新型数据增强与再生框架,旨在解决序列推荐系统中数据质量不足的问题。该方法首次构建了融合共现关系、时序关系和语义关系的多关系图,并基于此进行数据增强。通过设计关系感知的序列生成器,动态融合多源特征以生成高质量、多样化的训练数据,从而在不改变推荐模型结构的情况下,显著提升了多种主流序列推荐模型的性能,为数据中心的序列推荐提供了新思路。论文信息如下:

Yichen Li, Yichen Tan, Yijing Shan, Haozhao Wang, Rui Zhang, Imran Razzak, Ruixuan Li. Data-Centric Sequential Recommendation with Relation-Augmented Generation. The 40th Annual AAAI Conference on Artificial Intelligence (AAAI 2026), Singapore, January 20-27, 2026.


3. 实验室2023级直博生李亦晨同学的论文FedCD: Towards Consolidated Distillation for Heterogeneous Federated Learning被大会录用。论文在王号召等老师的指导下完成。该论文提出了一种统一的联邦蒸馏框架,旨在解决异构联邦学习中知识蒸馏模式选择困难的问题。该方法通过跨层注意力机制自适应融合不同网络层的特征,并利用高斯混合模型对融合后的特征分布进行建模,在数据和模型异构的联邦学习场景下显著提升了性能。论文信息如下:

Yichen Li, Hang Su, Huifa Li, Haolin Yang, Xinlin Zhuang, Haochen Xue, Haozhao Wang, Imran Razzak. FedCD: Towards Consolidated Distillation for Heterogeneous Federated Learning. The 40th Annual AAAI Conference on Artificial Intelligence (AAAI 2026), Singapore, January 20-27, 2026.


4. 实验室2024级博士生张桢毓同学的论文Decoupling Template Bias in CLIP: Harnessing Empty Prompts for Enhanced Few-Shot LearningAAAI 2026大会录用。论文在邹逸雄、李玉华等老师的指导下完成。该论文聚焦于基于CLIP的小样本学习场景。在基于视觉语言模型比如CLIP的分类任务当中,往往结合文本模板比如“a photo of a”和具体的语义信息来引导模型执行分类任务。而本项研究指出这种语言空模板本身也会带上对语义的偏差,导致视觉语言模型的决策错误,于是提出一种抑制空模板偏差的小样本微调方法。通过使用不包含语义信息的空模板先修正模型的偏差,之后再进行去偏的微调的方式有效的提升了CLIP上小样本学习的性能。论文信息如下:

Zhenyu Zhang, Guangyao Chen, Yixiong Zou, Zhimeng Huang, Yuhua Li. Decoupling Template Bias in CLIP: Harnessing Empty Prompts for Enhanced Few-Shot Learning, Annual AAAI Conference on Artificial Intelligence (AAAI 2026), Singapore, Jan 20–27, 2026.


5. 实验室2024级硕士生秦祺钰同学的论文Unbiased Rectification for Sequential Recommender Systems under Fake OrdersAAAI 2026大会录用为oral论文。论文在李瑞轩,王号召,张瑞等老师的指导下完成。论文聚焦于全新的含有虚假订单的序列推荐场景,提出了一种针对序列数据的高效无偏遗忘学习框架。该方法通过深入分析协同视图和语义视图的特征差异,对虚假订单进行精准识别。基于并非所有虚假订单都对系统绝对有害的洞察,利用影响函数度量虚假订单的真实影响,选择真正有害的订单进行梯度上升,在不破坏序列结构的基础上实现高效高质的数据遗忘,显著提升了推荐性能和系统鲁棒性。论文信息如下:

Qiyu Qin, Yichen Li, Haozhao Wang, Cheng Wang, Rui Zhang, Ruixuan Li. Unbiased Rectification for Sequential Recommender Systems under Fake Orders. The 40th Annual AAAI Conference on Artificial Intelligence (AAAI 2026), Singapore, January 20-27, 2026. (Oral)


6. 实验室2025级硕士生阎庆阳同学的论文Start Small, Think Big: Curriculum-based Relative Policy Optimization for Visual GroundingAAAI 2026大会录用为oral论文。论文在邹逸雄等老师的指导下完成。该论文聚焦于视觉定位中显式链式思维反而可能降低推理与定位效果的反常现象。该工作首先指出,在该任务里强迫模型生成较长或复杂的CoT会引入额外噪声与容量竞争,使定位变差,且简单堆叠训练数据也未必带来稳健收益;随后系统分析CoT长度与任务难度/奖励信号之间的关系,发现CoT越长往往意味着样本越难、学习更不稳定,因此数据复杂度与呈现顺序才是关键变量。基于这一洞察,提出课程化相对策略优化CuRPO,将CoT平均长度与视觉奖励作为复杂度指标,对训练样本从易到难分阶段排序,并在GRPO式相对策略优化框架下逐步解锁更复杂样本,从而让模型先掌握短链、清晰的推理与定位模式,再适应长链、歧义更高的情形。最后通过大量实证与消融验证表明,该课程化训练能在不要求显式输出CoT的前提下提升训练稳定性与泛化鲁棒性,说明对视觉定位任务而言,顺应难度递进来组织推理学习比单纯增加CoT或数据规模更有效。论文信息如下:

Qingyang Yan, Guangyao Chen, Yixiong Zou. Start Small, Think Big: Curriculum-based Relative Policy Optimization for Visual Grounding, Annual AAAI Conference on Artificial Intelligence (AAAI 2026), Singapore, Jan 20–27, 2026.(Oral)


AAAI是人工智能领域的著名国际会议,也是中国计算机学会推荐的A类会议。自1979年创办以来一直深受全球学者的广泛关注和认可,在计算机科学和人工智能领域具有崇高的声誉。

在此,我们对孔令晓、李亦晨、张桢毓、秦祺钰、阎庆阳等同学论文的录用表示热烈祝贺!


注:该新闻同步发布在IDC实验室微信公众号

智能与计算分布实验室


Baidu
map