Document
拖动滑块完成拼图
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

一种无线联邦学习方法及装置 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:北京邮电大学

摘要:本发明公开了一种无线联邦学习方法及装置,方法包括步骤:基于空中计算的分布式学习用户和基于非正交多址接入的集中式学习用户通过双功能智能超表面辅助的并发传输,共享上行频谱资源,将本地数据和模型参数同时发送到基站进行混合学习;基站首先对基于非正交多址接入的集中式用户进行信号译码,从而获得每个集中式学习用户的本地数据,用以计算其模型参数;然后基站利用串行干扰消除及空中计算技术得到联邦学习用户的平均模型参数;基站结合前述两类模型参数,更新全局模型;之后基站将全局模型下发至所有联邦学习用户以进行下一轮学习,直至全局模型收敛或达到最大迭代次数。本发明可以显著降低通信开销和降低传输时延以及获得更好的学习性能。

主权项:1.一种无线联邦学习方法,其特征在于,包括以下步骤:S201、基于空中计算的分布式学习用户和基于非正交多址接入的集中式学习用户通过双功能智能超表面辅助的并发传输,共享上行频谱资源,将本地数据和模型参数同时发送到基站进行混合学习;步骤S201的具体方法为:有计算能力的用户通过本地计算得到模型参数,利用空中计算上传到基站;没有计算能力的用户通过使用非正交多址接入技术将他们的本地数据集传输到基站,并由基站来代替其进行模型计算,从而参与到学习的过程中;借助双功能智能超表面,使得集中式学习的本地数据与联邦学习的模型参数得以并行上传,从而将两者集成到一个统一的框架中;所有用户集合表示为U=N∪K,其中,联邦学习用户集合表示为集中式学习用户的集合表示为根据双功能智能超表面的空间设置,将其自由空间分为折射区域与反射区域,对于分别位于这两个区域内的用户的信号传输到反射面时,双功能智能超表面分别采用折射和反射大的模式将信号传送到基站,具体形式为: 其中为第u个用户到基站直射径信道响应,为第u个用户到双功能智能超表面的信道响应,为所述双功能智能超表面到基站的信道响应,定义分别代表双功能智能反射面的反射向量χ=R或者折射向量χ=T,其中Θu=diagqχ为双功能智能超表面的相移矩阵,sn代表集中式学习用户上传的本地数据,sk代表联邦学习用户发送的模型参数,pn和pk分别表示信号的发送功率,z0~CN0,σ2为AWGN信道噪声;S202、基站首先对基于非正交多址接入的集中式用户进行信号译码,从而获得每个集中式学习用户的本地数据,用以计算其模型参数;然后基站利用串行干扰消除及空中计算技术得到联邦学习用户的平均模型参数;步骤S202的具体方法为:联邦学习用户的平均梯度为: 集中式学习用户的平均梯度: 其中gk和gn分别表示联邦学习用户和集中式学习用户的梯度,有表示本地的梯度,其中Fuw;Du为每个用户的损失函数,Du表示每个用户的数据集;基站通过使用连续干扰消除解码,将来自强用户的单个信号一一解码,并且利用来自弱用户的残差信号进行函数计算,通过双功能智能超表面调整信道响应使其满足: 基站通过连续干扰消除解码后,获得所有集中式学习用户的信号;之后通过空中计算技术得到的联邦学习用户的平均参数为: S203、基站结合步骤S202中的两类模型参数,更新全局模型;之后基站将全局模型下发至所有联邦学习用户以进行下一轮学习,直至全局模型收敛或达到最大迭代次数;步骤S203的具体方法为:联邦学习用户的训练在本地完成: 集中式学习用户的训练有基站代替完成: 全局的模型更新为: 其中gk和gn分别表示联邦学习用户和集中式学习用户的梯度,有表示每个本地的梯度,其中Fuw;Du为每个用户的损失函数,Du表示每个用户的数据集,g为最后求得的全局梯度;在得到全局模型后,基站将模型下发至联邦学习用户,联邦学习用户再次利用本地数据得到模型参数,并上传至基站;基站利用集中式学习用户上传的本地数据进行训练,并接收的联邦学习用户的模型参数,进行下一轮更新,循环迭代这样的训练,直到收敛或者达到最大迭代次数限制。

全文数据:

权利要求:

百度查询: 北京邮电大学 一种无线联邦学习方法及装置

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。