智能与分布计算实验室
 

【喜报】实验室8篇论文被NeurIPS 2025录用
时间:2025-09-19


热烈祝贺李亦晨、易小泉、肖天哲、李世伟、邱洋、童锦涛等老师和同学的8篇论文被NeurIPS 2025录用!


第39届神经信息处理系统国际会议 (The Thirty-Ninth Annual Conference on Neural Information Processing Systems (NeurIPS 2025)) 论文录用结果近日揭晓,IDC实验室共有8篇论文获得录用(含1篇spotlight论文),其中李亦晨同学3篇(含1篇spotlight论文),易小泉同学1篇,肖天哲同学1篇,李世伟同学1篇,邱洋同学1篇,童锦涛同学1篇,这是自去年5篇NeurIPS论文、今年9篇ICML论文以来实验室再次取得机器学习顶会新突破!


1. 实验室2023级直博生李亦晨同学的论文Efficient Knowledge Transfer in Federated Recommendation for Joint Venture Ecosystem被NeurIPS 2025大会录用为Spotlight论文。论文在李瑞轩、王号召等老师的指导下完成。该论文研究了联邦推荐系统在联营生态环境下的应用。该场景的参与方不再是单个用户设备,而是拥有海量且部分重叠用户与商品的大型子公司。为了在保护隐私的前提下,让这些子公司能够协同提升推荐效果,论文提出在每个子公司内部,安全地为用户提炼出一种评分偏好。这种评分偏好将作为一种可迁移的通用知识,在子公司之间进行传递。各个子公司再通过一个本地的桥接函数,将外部的偏好信息与自身的对齐,从而匹配到相似的用户,最终为那些交叉使用多个服务的用户提供更精准的推荐。论文信息如下:


Yichen Li, Yijing Shan, Yi Liu, Haozhao Wang, Cheng Wang, Wei Wang, Yi Wang, Ruixuan Li. Efficient Knowledge Transfer in Federated Recommendation for Joint Venture Ecosystem. The Thirty-Ninth Annual Conference on Neural Information Processing Systems (NeurIPS 2025), San Diego, CA, USA, December 2-7, 2025. (Spotlight)


2. 实验室2023级直博生李亦晨同学的论文Feature Distillation is the Better Choice for Model-Heterogeneous Federated Learning被NeurIPS 2025大会录用。论文在李瑞轩、王号召等老师的指导下完成。该论文聚焦于模型异构的联邦学习,即各个客户端使用不同结构模型进行训练的场景。研究指出传统的知识蒸馏方法由于仅关注模型的最终输出,无法有效融合来自不同结构模型的知识,易导致知识偏差和训练不稳定。为此,论文提出一个核心论点:基于模型中间层的特征进行蒸馏是更优越的方案,并设计了一种新的联邦蒸馏框架。它通过在服务器端为不同类型的模型构建专属的正交投影层,将它们的中间特征对齐到互不冲突的空间中,从而高效稳定地聚合了来自异构模型的知识。论文信息如下:


Yichen Li, Xiuying Wang, Wenchao Xu, Haozhao Wang, Yining Qi, Jiahua Dong, Ruixuan Li. Feature Distillation is the Better Choice for Model-Heterogeneous Federated Learning. The Thirty-Ninth Annual Conference on Neural Information Processing Systems (NeurIPS 2025), San Diego, CA, USA, December 2-7, 2025.


3. 实验室2023级直博生李亦晨同学的论文Resource-Constrained Federated Continual Learning: What Does Matter?被NeurIPS 2025大会录用。论文在李瑞轩、王号召、张瑞等老师的指导下完成。该论文对联邦持续学习领域进行了一项大规模的基准测试与反思。当前的研究大多在理想化的假设下进行,忽略了真实世界中边缘设备在存储空间、计算能力和数据标签率等方面的严格资源限制。该工作的核心并非提出一种新算法,而是通过上千小时的大量实验,系统地评估了现有主流方法在不同资源受限条件下的实际表现。研究表明,一旦面临严格的资源约束,所有现存的方法性能都会出现严重下降,这表明当前的技术路径过分依赖资源,难以直接应用于现实场景。同时,论文还深入剖析了样本缓存、数据合成、知识蒸馏等常用技术对不同资源的敏感度和依赖性,为未来开发真正高效、实用的资源受限联邦持续学习算法指明了方向。论文信息如下:


Yichen Li, Yuying Wang, Jiahua Dong, Haozhao Wang, Yining Qi, Rui Zhang, Ruixuan Li. Resource-Constrained Federated Continual Learning: What Does Matter? The Thirty-Ninth Annual Conference on Neural Information Processing Systems (NeurIPS 2025), San Diego, CA, USA, December 2-7, 2025.


4. 实验室2022级博士生易小泉同学的论文ChatbotID: Identifying Chatbots with Granger Causality Test被NeurIPS 2025大会录用。论文在王号召、李瑞轩、李玉华等老师指导下完成。该论文针对对话场景的人机检测难题,系统揭示了人人对话与人机对话在情感影响上的双向与单向差异,并首次将格兰杰因果检验引入对话检测以提取交互动态特征,融合GCT交互特征与上下文语义嵌入,并设计多任务损失协同优化对话分类与缺陷标注模块。实验结果进一步证明了ChatbotID的有效性。论文信息如下:


Xiaoquan Yi, Haozhao Wang, Yining Qi, Wenchao Xu, Rui Zhang, Yuhua Li, Ruixuan Li. ChatbotID: Identifying Chatbots with Granger Causality Test. The Thirty-Ninth Annual Conference on Neural Information Processing Systems (NeurIPS 2025), San Diego, CA, USA, December 2-7, 2025.


5. 实验室2023级博士生肖天哲同学的论文Enhancing Privacy in Multimodal Federated Learning with Information Theory被NeurIPS 2025大会录用。论文在李瑞轩教授、王号召讲师和齐伊宁博士后的指导下完成。本文首次在多模态联邦学习中引入信息论视角分析隐私泄露过程,发现不同模态传输的信息量不同,从而需要不同的保护强度,同时模态间的相关性会增加对梯度反转攻击的脆弱性。本文深入研究并对这一现象解释为模态相关性导致跨模态信息泄露,从而放大隐私风险。基于这一现象和解释,本文进一步提出一种简单而有效的隐私增强方法Sec-MMFL,即通过条件互信息调整对应模态的保护强度,并利用互信息减少跨模态信息泄露,实现更平衡且全面的隐私保护,同时保持模型性能。本文在多个基准上的实验验证了该解释和方法的合理性。论文信息如下:


Tianzhe Xiao, Yichen Li, Yining Qi, Yi Liu, Wei Wang, Haozhao Wang, Yi Wang, Ruixuan Li. Enhancing Privacy in Multimodal Federated Learning with Information Theory. The Thirty-Ninth Annual Conference on Neural Information Processing Systems (NeurIPS 2025), San Diego, CA, USA, December 2-7, 2025.


6. 实验室2021级博士生李世伟同学的论文Beyond Higher Rank: Token-wise Input-Output Projections for Efficient Low-Rank Adaptation被大会录用。论文在李瑞轩、王号召等老师指导下完成。本研究针对大模型低秩微调(Low-Rank Adaptation, LoRA)存在的统一投影限制,提出了 Token-wise Projected Low-Rank Adaptation (TopLoRA) 方法。与标准LoRA对所有输入Token采用相同权重的方式不同,TopLoRA能够根据每个token的语义动态生成低秩权重,从而实现token级别的输入输出映射。这种方式在不增加LoRA秩的情况下,实现了更细粒度的适配能力。实验结果表明,TopLoRA在多个模型和数据集上均显著优于现有方法。论文信息如下:


Shiwei Li, Xiandi Luo, Haozhao Wang, Xing Tang, Ziqiang Cui, Dugang Liu, Yuhua Li, Xiuqiang He, Ruixuan Li. Beyond Higher Rank: Token-wise Input-Output Projections for Efficient Low-Rank Adaptation. The 39th Annual Conference on Neural Information Processing Systems (NeurIPS 2025), San Diego, USA, December 2nd–7th, 2025.


7. 实验室2022级博士生邱洋同学的论文Quantifying Distributional Invariance in Causal Subgraph for IRM-Free Graph Generalization被大会录用。论文在邹逸雄老师、王俊博士、刘伟博士后、李瑞轩老师的指导下完成。现有的针对图分布外泛化问题通常采用不变风险最小化(IRM)框架来捕获因果子图,这需要昂贵的环境标注或启发式探索。为了规避这些限制,我们开发了一种无需IRM的方法来捕获因果子图。我们首先发现,因果子图在不同环境中的分布变化明显小于非因果成分,并将其形式化为不变分布准则。基于这一准则,我们系统地揭示了分布变化与表征范数之间的定量关系,并进一步提出了表征范数引导下的方法来用于因果子图的发现和预测。在两个广泛使用的基准上的大量实验表明,我们的方法在图分布外泛化上优于现有方法。论文信息如下:


Yang Qiu, Yixiong Zou, Jun Wang, Wei Liu, Xiangyu Fu, Ruixuan Li. Quantifying Distributional Invariance in Causal Subgraph for IRM-Free Graph Generalization. The Thirty-Ninth Annual Conference on Neural Information Processing Systems (NeurIPS 2025), San Diego, CA, USA, December 2-7, 2025.


8. 实验室2025级博士生童锦涛同学的论文FlowCut: Rethinking Redundancy via Information Flow for Efficient Vision-Language Models被大会录用。论文在邹逸雄、李瑞轩等老师指导下完成。本文针对视觉-语言大模型在推理过程中因冗余视觉 token 过多而导致的计算效率低下问题,提出了一种高效的推理加速方法。该工作系统性地研究了视觉-语言大模型中视觉信息的流动机制,发现现有加速方法大多依赖单层注意力得分来评估 token 重要性,但这种局部视角往往不够准确。通过对多层视觉信息流的建模与分析,揭示了冗余并非一开始就存在,而是随着注意力在层间传递过程中逐渐发生不对称集中而形成的副产品。基于这一发现,本文提出信息流感知的视觉 token 裁剪框架 FlowCut,其核心思想是让裁剪决策顺应模型内部固有的信息流向,从而在去除冗余的同时保持关键信息传递。大量实验表明,FlowCut 在加速多模态大模型推理的同时,几乎不损害其原有性能,充分验证了方法的有效性与解释的合理性。论文信息如下:


Jintao Tong, Wenwei Jin, Pengda Qin, Anqi Li, Yixiong Zou, Yuhong Li, Yuhua Li, Ruixuan Li. FlowCut: Rethinking Redundancy via Information Flow for Efficient Vision-Language Models. The Thirty-Ninth Annual Conference on Neural Information Processing Systems (NeurIPS 2025), San Diego, CA, USA, December 2-7, 2025.


NeurIPS是机器学习领域的国际顶级会议之一,也是计算机学会所列人工智能领域的A类会议。自1987年创办以来一直深受全球学者的广泛关注和认可,在整个计算机科学领域享有崇高的声望。


在此,我们对李亦晨、易小泉、肖天哲、李世伟、邱洋、童锦涛等同学论文的录用表示热烈祝贺!


Baidu
map