申请/专利权人:杭州电子科技大学
申请日:2023-12-11
公开(公告)日:2024-03-12
公开(公告)号:CN117689043A
主分类号:G06N20/20
分类号:G06N20/20
优先权:
专利状态码:在审-实质审查的生效
法律状态:2024.03.29#实质审查的生效;2024.03.12#公开
摘要:本发明公开了一种基于相关性分析的抗共谋联邦学习优化方法,该方法首先建立基于中心化架构的联邦学习训练系统。其次随机选择n个本地客户端为共谋攻击者,其它为诚实客户端,所有本地客户端加入训练系统,并被划分为一组,接受中央服务器下发的初始全局模型。然后所有本地客户端根据初始全局模型进行训练,并向中央服务器上传训练的模型梯度,中央服务器根据上传的模型梯度进行分组,按组计算梯度平均数,作为该组的新全局模型梯度。最后诚实客户端使用新的全局模型梯度进行下一次迭代训练;共谋攻击者则不进行任何训练。本发明能同时抵御FR攻击和共谋攻击,在大规模客户端的场景下依然能保证较高的精度。
主权项:1.一种基于相关性分析的抗共谋联邦学习优化方法,其特征在于,包括以下步骤:S1:建立基于中心化架构的联邦学习训练系统;该联邦学习训练系统,由中央服务器和本地客户端两类节点组成;S2:随机选择n个本地客户端成为共谋攻击者,其它本地客户端为诚实客户端,初始的中央服务器筛选管理进程选择所有本地客户端加入联邦学习训练系统,并被划分为一组,接受中央服务器下发的初始全局模型;S3:所有本地客户端根据初始全局模型进行训练,并向中央服务器上传训练的模型梯度,中央服务器利用高斯噪音加密客户端上传的模型梯度;S4:中央服务器根据本地客户端上传的模型梯度进行分组,按组计算本地模型梯度平均数,并将本地模型梯度平均数作为该组的新全局模型梯度;S5:诚实客户端使用新的全局模型梯度进行下一次迭代训练;共谋攻击者则不进行任何训练;S6:重复步骤S3至S5,直至完成预定迭代轮数。
全文数据:
权利要求:
百度查询: 杭州电子科技大学 一种基于相关性分析的抗共谋联邦学习优化方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。