Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 恭喜南京大学林宇获国家专利权

恭喜南京大学林宇获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网恭喜南京大学申请的专利一种基于模型转换实现隐私保护卷积神经网络推理的方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114912132B

龙图腾网通过国家知识产权局官网在2025-06-13发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210511813.1,技术领域涉及:G06F21/60;该发明授权一种基于模型转换实现隐私保护卷积神经网络推理的方法是由林宇;毛云龙;张渊;仲盛设计研发完成,并于2022-05-11向国家知识产权局提交的专利申请。

一种基于模型转换实现隐私保护卷积神经网络推理的方法在说明书摘要公布了:本发明公开了一种基于模型转换实现隐私保护卷积神经网络推理的方法,服务器调用模型转换程序,从输入神经网络模型中选取N‑1个卷积层作为分割点;所述模型转换程序调用卷积层转换程序,根据神经网络的卷积层参数生成相应的压缩卷积层和拓展卷积层,从而将输入神经网络模型划分为N个模型分片;客户端采用同态加密系统生成N对公钥与私钥,服务器与客户端分别调用数据推理程序。本发明通过模型分割的方法,将神经网络模型划分为多个分片,从而提升了在使用同态加密技术计算神经网络推理过程中的效率;待推理数据和神经网络模型分别由客户端和服务器持有,因此本方法同时保护了服务器和客户端的隐私。

本发明授权一种基于模型转换实现隐私保护卷积神经网络推理的方法在权利要求书中公布了:1.一种基于模型转换实现隐私保护卷积神经网络推理的方法,其特征在于:包括模型转换和数据推理; 所述模型转换包括 服务器调用模型转换程序,从输入神经网络模型中选取N-1个卷积层作为分割点; 所述模型转换程序调用卷积层转换程序,根据神经网络的卷积层参数生成相应的压缩卷积层和拓展卷积层,从而将输入神经网络模型划分为N个模型分片,所述卷积层参数包括卷积核尺寸K,输入通道数量CI,输出通道数量CO; 客户端采用同态加密系统生成N对公钥与私钥,用于所述N个模型分片的推理计算; 所述数据推理包括: 客户端使用当前模型分片对应的公钥将明文数据加密,并将密文和公钥发送给服务器; 服务器根据接收到的公钥与密文,基于同态加密系统计算该模型分片的输出值,若当前模型分片不是最后一个模型分片,服务器使用随机数作为掩码与输出值相加后再返回给客户端,否则直接将输出值返回给客户端; 客户端使用当前模型分片对应的私钥解密收到的所述输出值,得到当前模型分片的计算结果;服务器与客户端对所述N个模型分片均执行完以上数据推理的步骤后,客户端即得到整个神经网络模型的推理结果; 所述服务器调用模型转换程序、卷积层转换程序和数据推理程序的步骤包括: 步骤101,输入一个具有L层的神经网络模型M,表示为M[1:L],同时输入一个分割点数量γ,一个增益阈值α,一个压缩率σ,并设置当前分割点选取轮次为i=0; 步骤102,使用所述数据推理程序编译并执行M[1:L],得到运行时间TM[1,L]; 步骤103,初始化一个模型分片集合S,并将所述模型M放入该模型分片集合S中,即S={M[1:L]}; 步骤104,初始化一个增益集合G={},设置分片序号为n=0; 步骤105,从模型分片集合S中取出元素M'[l1:l2]←S[n],其中l1和l2分别表示该元素开始和结尾的层序号,使用所述数据推理程序编译并执行M'[l1:l2],得到运行时间设置层序号j=l1+1; 步骤106,若神经网络层M'[j]不是卷积层,则跳转至步骤111;否则继续; 步骤107,调用所述卷积层转换程序,使用模型M'[l1:l2]、分割点j和压缩率σ作为输入,得到输出的分割模型M'[l1,j]和M'[j,l2]; 步骤108,调用所述数据推理程序编译并执行M'[l1,j]和M'[j,l2],得到运行时间和 步骤109,使用下式计算分裂增益: 步骤110,将层序号和分裂增益均记录在增益集合中,即G=G∪{j,gj}; 步骤111,若jl2-1,j=j+1,跳转至步骤106;否则继续; 步骤112,若n|S|,|S|为集合S中的元素数量,n=n+1,跳转至步骤105,否则继续; 步骤113,从G中随机选取一个增益不小于增益阈值α的层序号j'gj'≥α作为分割点,将S中包含分割点j'的元素M'[l1:l2]使用卷积层转换程序替换为M'[l1,j']和M'[j',l2]; 步骤114,若iγ,i=i+1,跳转至步骤104;否则继续; 步骤115,输出转换后的分片集合S; 在步骤107中,服务器调用的所述的卷积层转换程序包括以下步骤: 步骤201,输入一个模型M[l1:l2],一个压缩率σ,一个层序号t,需满足l1tl2,且M[t]是卷积层; 步骤202,设置两个分割模型M1=M[l1:t-1],M2=M[t+1:l2]; 步骤203,读取卷积层Φ=M[t]的卷积核尺寸为K,输入通道数量为CI,输出通道数量为CO; 步骤204,生成压缩卷积层Φs,卷积核尺寸为1,输入通道数量为CI,输出通道数量为生成拓展卷积层Φe,包含尺寸为1和K的两种卷积核,输入通道数量为输出通道总数为CO; 步骤205,令M1=M1||{Φs},M2={Φe}||M2,表示将Φs添加至M1最后一层,将Φe添加至M2首层; 步骤206,若M1[t-1]为池化层,将该池化层移至Φs后; 步骤207,输出M1和M2。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京大学,其通讯地址为:210000 江苏省南京市栖霞区仙林大道163号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。