• •
基于知识蒸馏的个性化联邦多任务学习算法
孙艳华,王子航,刘畅,王朱伟,李萌
- 北京工业大学
Personalized Federated Multi Task Learning Algorithm Based on Knowledge Distillation
摘要: 为了应对联邦学习(Federated Learning)框架中参与者拥有异构模型和异构数据的情况,同时考虑了参与者的信任问题,本文提出了一种基于知识蒸馏的个性化联邦多任务学习(pFedMK)算法,每个客户端除了学习全局目标任务外,还需要同时学习基于本地和其他客户端信息的个性化目标任务,采用了两级蒸馏方案,即全局蒸馏和相互蒸馏并考虑了客户端信誉问题。首先,每个客户端会在公共数据集上进行训练并计算得到自己的软预测值,中心服务器会根据客户的软预测值与前一轮信誉加权,更新当前每个客户的信誉值并根据信誉值大小选出除自己外信誉值最大的k位客户构成一个联盟,通过合作博弈的夏普利值(Shapley Value)计算出合理的聚合系数,再将聚合的模型知识利用知识蒸馏方式传输到本地模型完成全局蒸馏。然后,利用相互蒸馏,以分布的点对点方法,实现了在异构模型下,每个客户端可以从其它客户端学习的目标。通过在两个数据集上进行训练仿真并与其他同类型算法对比得出pFedMK算法可以改进系统性能,提升个性化精度。
中图分类号: