首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

基于动态本地训练和梯度压缩策略的联邦学习方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:东南大学

摘要:本发明公开了一种基于动态本地训练和梯度压缩策略的联邦学习方法。在模型训练时动态调整本地训练策略中终端与中心服务器之间的通信间隔,同时在每次通信时动态调整梯度压缩的量化比特数和稀疏化程度,通过以上方式降低通信开销。本发明能够解决联邦学习中通信开销过大的问题,在降低模型训练过程通信开销的同时,最大化模型可用性。相较于传统的通信节约型联邦学习方法,本发明所提出的方法可以获得更好的性能。

主权项:1.一种基于动态本地训练和梯度压缩策略的联邦学习方法,其特征在于,所述方法包括以下步骤:步骤1、设定一次模型训练总迭代次数T,总通信开销Btot,总通信次数R;中心服务器初始化模型参数x0,初始化通信间隔H1;步骤2、终端1到终端N分别利用本地数据计算梯度i=1,...,N,若未达到通信间隔,则利用该梯度计算本地模型,反之,对本次本地训练的模型更新量进行稀疏化及量化之后上传至中心服务器;步骤3、中心服务器聚合各个终端上传的梯度,对梯度取平均其中,表示设备i上传的本地聚合梯度,N表示终端的总个数,gagg表示中心服务器对各设备上传的聚合梯度取平均后的全局聚合梯度,并更新全局模型参数x1=x0-ηgagg,其中,x0为初始化全局模型参数,x1为第一次模型更新后的全局模型参数,η为学习率;根据通信间隔动态机制子问题P1得到通信间隔分配机制来更新通信间隔Hr,将以上参数发送给各个终端;步骤4、完成一次模型的训练后,若通信次数达到R,停止训练;否则返回步骤2。

全文数据:

权利要求:

百度查询: 东南大学 基于动态本地训练和梯度压缩策略的联邦学习方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。