首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】一种满足个性化本地差分隐私需求的联邦学习方法_北京理工大学_202210393006.4 

申请/专利权人:北京理工大学

申请日:2022-04-14

公开(公告)日:2024-06-14

公开(公告)号:CN114841364B

主分类号:G06N20/00

分类号:G06N20/00;G06F21/62

优先权:

专利状态码:有效-授权

法律状态:2024.06.14#授权;2022.08.19#实质审查的生效;2022.08.02#公开

摘要:本发明涉及一种满足个性化本地差分隐私需求的联邦学习方法,属于网络与信息安全技术领域。在联邦学习的每一个迭代轮次中,每个客户端在完成本地模型训练后,根据自己设置的隐私预算对原始的本地模型参数进行扰动,然后发送给服务器。服务器收集所有客户端扰动后的本地模型参数,并根据每个客户端设置的隐私预算计算其对应的概率参数,在聚合全局模型时根据概率参数来决定使用哪些客户端的本地模型。对比现有技术,本发明可抵抗来自不可信服务器的隐私攻击,客户端可设置不同的隐私预算,支持“个性化”的隐私保护。客户端选择机制可以在隐私预算个性化设置的情形下,使服务器获得更准确的全局模型,平衡了数据可用性与隐私性。

主权项:1.一种满足个性化本地差分隐私需求的联邦学习方法,其特征在于,包括以下步骤:步骤1:服务器生成初始全局模型,并将初始全局模型参数发送给各客户端;其中,服务器是一个不可信的实体,负责收集各客户端的本地模型参数、计算各客户端对应的概率参数,以及生成全局模型;服务器同时也是全局模型的需求者;客户端拥有联邦学习任务所需的训练数据,负责训练本地模型、裁切和扰动原始模型参数,生成扰动后的本地模型;由多个客户端共同参与联邦学习过程,各个客户端的训练数据集是独立同分布的;步骤2:每个客户端根据服务器分发的全局模型参数,在本地训练数据集上获得原始的本地模型;步骤3:每个客户端对训练得到的原始模型的参数进行裁切;步骤4:每个客户端对经过裁切后的原始模型参数进行扰动,即,添加高斯随机噪声,客户端根据设定的隐私预算计算高斯分布的标准差,并生成相应的高斯噪声叠加在原始模型的参数向量上;之后,客户端将扰动后的参数向量作为本地模型参数向量,发送给服务器;步骤5:选择客户端,生成全局模型;首先,服务器收集来自客户端的本地模型参数;然后,服务器根据客户端设置的隐私预算,计算其对应的概率参数;其中,概率参数表示某个客户端的本地模型参数被服务器选中用于计算本轮全局模型参数的概率;被选中的客户端地位平等;服务器使用这些客户端的本地模型参数计算本轮全局模型参数,并将全局模型参数发送给各客户端;重复步骤2至步骤5,直到迭代结束;其中,步骤5包括如下步骤:步骤5.1:服务器计算客户端的概率参数{P1,P2,...,PN};每个客户端的概率参数P是根据步骤4中高斯分布标准差计算得到的;对于第i个客户端,服务器首先计算其高斯分布标准差σi的倒数,记为ρi,然后对ρi进行归一化处理,得到客户端i的概率参数N为客户端的总数;步骤5.2:根据各个客户端所对应的概率参数,对N个候选客户端进行随机抽取,选出M个客户端,1≤M≤N;步骤5.3:服务器基于选中的M个客户端,计算第r轮全局模型参数Wr;全局模型参数是被选中的客户端提交的本地模型参数的平均值,即表示由实数组成的d维向量空间,向量中的每个元素为0;表示经裁切、扰动后的本地模型参数;在每个迭代轮次的最后,服务器将本轮计算得到的全局模型参数Wr发送给N个客户端。

全文数据:

权利要求:

百度查询: 北京理工大学 一种满足个性化本地差分隐私需求的联邦学习方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。