Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 恭喜华侨大学谢晓东获国家专利权

恭喜华侨大学谢晓东获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网恭喜华侨大学申请的专利一种基于解耦学习过程的深度学习模型后门攻击防御方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119670075B

龙图腾网通过国家知识产权局官网在2025-04-29发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510186398.0,技术领域涉及:G06F21/55;该发明授权一种基于解耦学习过程的深度学习模型后门攻击防御方法是由谢晓东;林伟;刘艳;谢挺俊设计研发完成,并于2025-02-20向国家知识产权局提交的专利申请。

一种基于解耦学习过程的深度学习模型后门攻击防御方法在说明书摘要公布了:本发明提供一种基于解耦学习过程的深度学习模型后门攻击防御方法,属于人工智能和深度学习领域,包括:利用被篡改的数据集,以最小化第一损失函数的方式对深度学习模型进行监督学习训练;分别计算每个干净样本和中毒样本的预测熵,对预测熵进行过滤得到干净子集;利用干净子集,以最大化第二损失函数的方式对监督学习训练后的深度学习模型进行主动遗忘训练;删除数据集中除干净子集之外的样本的标签得到无标签数据集,将无标签数据集与干净子集合并形成半监督数据集,利用半监督数据集对主动遗忘训练后的深度学习模型进行半监督微调训练。本发明的鲁棒性强,成本低,防御效果显著。

本发明授权一种基于解耦学习过程的深度学习模型后门攻击防御方法在权利要求书中公布了:1.一种基于解耦学习过程的深度学习模型后门攻击防御方法,其特征在于:包括如下步骤:步骤S1、利用被篡改的数据集,以最小化第一损失函数的方式对深度学习模型进行监督学习训练,被篡改的数据集包括干净样本和中毒样本;步骤S2、根据深度学习模型对干净样本和中毒样本的预测结果,分别计算每个干净样本和中毒样本的预测熵,将所有预测熵进行排序并以设定的过滤率进行过滤,以得到干净子集和中毒子集;步骤S3、利用步骤S2形成的干净子集,以最大化第二损失函数的方式对经步骤S1训练后的深度学习模型进行主动遗忘训练,以使模型忘记在干净样本上学到的正常行为特征,从而暴露出与后门任务相关的神经元;步骤S4、删除数据集中除干净子集之外的样本的标签得到无标签数据集,将无标签数据集与干净子集合并形成半监督数据集,利用半监督数据集对经步骤S3训练后的深度学习模型进行半监督微调训练,以恢复被遗忘的正常行为特征,微调过程中,采用过滤器级别的恢复策略;所述步骤S1中,所述第一损失函数表示为,其中,Dp表示由干净样本xp形成的干净样本集,Dc表示由中毒样本xc形成的中毒样本集,m表示干净样本的数量,n表示干净样本和中毒样本的总数量,L1.表示交叉熵损失函数,fw.为深度学习模型中的后门模型,w为后门模型参数,yp表示对应于干净样本xp的目标类,yc表示对应于中毒样本xc的目标类;所述中毒样本由干净样本注入触发器得到;所述步骤S2中,将所有n个预测熵以升序进行排序,设定过滤率,将前个预测熵对应的样本过滤出并形成中毒子集,将后个预测熵对应的样本过滤出并形成干净子集,其中,样本包括步骤S1中的干净样本和或中毒样本;所述步骤S3中,所述第二损失函数表示为,其中,m'表示干净子集中的样本数量,表示干净子集中的样本,表示样本对应的目标类,表示经步骤S1训练后的深度学习模型的权重。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人华侨大学,其通讯地址为:362000 福建省泉州市丰泽区城东城华北路269号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。