首页 | 本学科首页   官方微博 | 高级检索  
     

模型不可知的联合相互学习
引用本文:周伟,李艺颖,陈曙晖,丁博. 模型不可知的联合相互学习[J]. 国防科技大学学报, 2023, 45(3): 118-126
作者姓名:周伟  李艺颖  陈曙晖  丁博
作者单位:国防科技大学 计算机学院,湖南 长沙 410073
基金项目:科技创新2030-“新一代人工智能”重大资助项目(2020AAA0104803)
摘    要:主流的联邦学习(federated learning, FL)方法需要梯度的交互和数据同分布的理想假定,这就带来了额外的通信开销、隐私泄露和数据低效性的问题。因此,提出了一种新的FL框架,称为模型不可知的联合相互学习 (model agnostic federated mutual learning, MAFML)。MAFML仅利用少量低维的信息(例如,图像分类任务中神经网络输出的软标签)共享实现跨机构间的“互学互教”,且MAFML不需要共享一个全局模型,机构用户可以自定制私有模型。同时,MAFML使用简洁的梯度冲突避免方法使每个参与者在不降低自身域数据性能的前提下,能够很好地泛化到其他域的数据。在多个跨域数据集上的实验表明,MAFML可以为面临“竞争与合作”困境的联盟企业提供一种有前景的解决方法。

关 键 词:联邦学习  域偏移  模型不可知
收稿时间:2021-06-30

Model agnostic federated mutual learning
ZHOU Wei,LI Yiying,CHEN Shuhui,DIND Bo. Model agnostic federated mutual learning[J]. Journal of National University of Defense Technology, 2023, 45(3): 118-126
Authors:ZHOU Wei  LI Yiying  CHEN Shuhui  DIND Bo
Affiliation:College of Computer Science and Technology, National University of Defense Technology, Changsha 410073, China
Abstract:
Keywords:federated learning   domain shift   model agnostic
本文献已被 万方数据 等数据库收录!
点击此处可从《国防科技大学学报》浏览原始摘要信息
点击此处可从《国防科技大学学报》下载免费的PDF全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号