首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明公布】一种基于3D卷积的图像篡改定位方法_桂林理工大学_202410353358.6 

申请/专利权人:桂林理工大学

申请日:2024-03-27

公开(公告)日:2024-06-21

公开(公告)号:CN118230093A

主分类号:G06V10/774

分类号:G06V10/774;G06V10/764;G06T7/10;G06V10/80;G06N3/0464;G06N3/084

优先权:

专利状态码:在审-公开

法律状态:2024.06.21#公开

摘要:本发明公开一种基于3D卷积的图像篡改定位方法,属于图像分割技术领域,实现步骤为:1构建训练数据集;2构建基于3D卷积图像篡改定位网络模型;3训练3D卷积图像篡改定位网络模型;4篡改图像输入已训练好的3D卷积图像篡改定位网络模型,通过对篡改区域边缘和真实图像边缘特征不一致性进行检测,由融合模块中的SRM流、两个RGB流和BayarConv流有效增强篡改区域和真实区域之间的特征差异,使用3D卷积,来加大感受野,进而增强网络的表达能力,以此进一步提升了泛化性和更准的定位能力。

主权项:1.一种基于3D卷积的图像篡改定位方法,其特征在于,具体包括以下步骤:步骤1,构建训练数据集:首先将Columbia、CASIA、NIST16、IMD20、Coverage这些数据集中的篡改图像进行数据划分处理,然后将五个数据集的篡改图像分别分成训练集和测试集,从而得到相对应的训练数据集和测试数据集;步骤2,构建基于3D卷积的图像篡改定位网络模型:网络模型包括三个部分:融合模块、3D卷积模块、分割头模块;融合模块主要由一个SRM流、两个RGB流和BayarConv流组成,用以增强特征;3D卷积模块由4个3D卷积提取块堆叠组成,将增强特征输入到3D卷积模块后由4个3D卷积提取块依次提取深度层次特征;分割头模块对深度层次特征进行融合、筛选得到深度融合特征;最后,深度融合特征通过压缩和黑白化处理得到篡改分割图像,最后分割图像采用0.6阈值通过黑白化处理后得到最终篡改分割图像;步骤3,训练3D卷积图像篡改定位网络模型:将Columbia、CASIA、NIST16、IMD20、Coverage这些数据集的训练集中的所有篡改图像分别输入到五个3D卷积图像篡改定位网络模型中,利用随机梯度下降法,对网络的参数进行持续的迭代更新,一直到L1损失函数收敛为止,得到训练好的3D卷积图像篡改定位网络模型;步骤4,对训练好的图像篡改定位网络模型,利用五个数据集分别进行测试:使用训练好的图像篡改定位网络模型,分别对五个数据集的测试集进行模型性能测试,分别得到五个数据集最终的图像篡改定位结果。

全文数据:

权利要求:

百度查询: 桂林理工大学 一种基于3D卷积的图像篡改定位方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。