Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 恭喜西安理工大学王文卿获国家专利权

恭喜西安理工大学王文卿获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网恭喜西安理工大学申请的专利面向红外与可见光图像的多尺度生成对抗融合网络的方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114841907B

龙图腾网通过国家知识产权局官网在2025-03-18发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210599873.3,技术领域涉及:G06T5/50;该发明授权面向红外与可见光图像的多尺度生成对抗融合网络的方法是由王文卿;张纪乾;刘涵;李余兴设计研发完成,并于2022-05-27向国家知识产权局提交的专利申请。

面向红外与可见光图像的多尺度生成对抗融合网络的方法在说明书摘要公布了:本发明公开了一种面向红外与可见光图像的多尺度生成对抗融合网络的方法,从标准训练集中选取若干红外与可见光图像对,然后将图像对输入至边缘保持滤波器,得到基础层和细节层;基础层输入至梯度滤波器得到梯度图和新的基础层,梯度图和原来的细节层相加作为新的细节层,经过计算得到判别器网络参数,然后训练,最后得到的输出即为最终的融合图像。这样融合得到的图像最大限度地保留源图像的目标信息和纹理信息,提高了融合图像的质量,对后续目标检测和识别提供了更便利的先决条件。

本发明授权面向红外与可见光图像的多尺度生成对抗融合网络的方法在权利要求书中公布了:1.面向红外与可见光图像的多尺度生成对抗融合网络的方法,其特征在于,具体按照以下步骤实施:步骤1、从标准训练集中选取若干红外与可见光图像对,然后将图像对输入至边缘保持滤波器,得到基础层和细节层;所述步骤1中滤波公式如下: 其中: 式1中Iq为输入图像,为滤波后图像,q是Iq的一个像素点,s是q的像素集合,p是q领域中的一个像素,是部分输入图像块,是周边图像块,是空间滤波器内核,是距离滤波器内核,空间内核和距离内核通常都以高斯的方式表示; 式3中Id0为经过双边滤波得到的细节层,Ib0为得到的基础层;步骤2、将步骤1得到的基础层输入至梯度滤波器得到梯度图和新的基础层,梯度图和步骤1的细节层相加作为新的细节层;步骤3、将步骤2得到的基础层和细节层输入至生成器网络G,经过生成器网络G后得到对应源图像对的融合图像,计算生成器损失函数LG,对生成器网络G参数进行更新,得到最终的生成器网络参数,将源图像分别和融合图像输入至判别器网络D进行分类,计算判别器损失函数LD,对判别器网络参数进行更新,得到最终的判别器网络参数;所述步骤3中生成器网络结构由双流网络和其后面接的卷积神经网络组成,双流网络中上下两支网络结构相同,均为六层卷积神经网络,前四层结构相同,网络结构为3×3的卷积层、批量归一化层和激活层,该激活层的激活函数为LeakyRelu;后两层结构相同,由5×5的卷积层、批量归一化层和激活层组成,该激活层的激活函数为LeakyRelu,双流网络后面接的网络结构由1×1的卷积层和激活层组成,该激活层的激活函数为tanh,这一层卷积神经网络的输出就是最终的融合图像;所述步骤3中生成器损失函数LG为:LG=λLcontent+LGen,6其中,Lcontent是生成器输入和输出的比较后的内容损失,LGen是生成器和判别器的对抗损失,λ为常数; 其中,H和W分别是生成器输入的图像高度和宽度,||·||2为计算二范数,If为生成器输出即融合图像,Ib为输入生成器的基础层,Id为输入生成器的细节层,为梯度算子,ξ为常量;LGen=E[log1-DVGIb,Id]+E[log1-DIGIb,Id]8GIb,Id表示生成器生成的融合图像,DVGIb,Id表示以融合图像GIb,Id为输入的判别器DV的判别值,DIGIb,Id表示以融合图像GIb,Id为输入的判别器DI的判别值;计算生成器损失函数LG,同时利用SGD对网络参数进行更新从而达到优化的目的,得到生成器的网络参数;所述步骤3中两个判别器网络DI和DV具有相同的网络结构,均由五层卷积神经网络组成,前四层结构相同,网络结构为3×3的卷积层、批量归一化层和激活层,该激活层的激活函数为LeakyRelu;最后一层为全连接层,输出的是对输入的分类结果,从而预测输出是融合图像还是源图像;输入为红外图像和融合图像的判别器损失函数为:LDI=E[-logDIII]+E[-log1-DIGIb,Id]9其中,DIII表示以红外图像作为输入的判别器判别值,DIGIb,Id表示以融合图像GIb,Id作为输入的判别器DI的判别值;输入为可见光图像和融合图像的判别器损失函数为:LDV=E[-logDVIV]+E[-log1-DVGIb,Id]10其中,DVIV表示以可见光图像作为输入的判别器判别值,DVGIb,Id表示以融合图像GIb,Id作为输入的判别器DV的判别值;给判别器输出设一个阈值,当其判别器输出值时大于预设的阈值时继续更新网络参数,直至小于预设的阈值,在此过程中要经过判别器DI和DV后,计算对应的判别器损失函数LDI和LDv,更新网络参数的优化方法是随机梯度下降SGD,最终得到判别器的网络参数;步骤4、开始训练网络,判别迭代是否结束,即当前的迭代次数是否达到了设定的迭代次数,迭代次数达到设置的迭代次数求得的网络参数作为最终的网络参数,将网络参数保存;步骤5、将步骤4得到的生成器网络参数加载到测试网络中的生成器网络中,将测试的红外与可见光源图像进行多尺度分解,即步骤1、步骤2中的滤波操作,然后将分解得到对应的基础层和细节层拼接起来当作测试网络的输入,得到的输出即为最终的融合图像。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人西安理工大学,其通讯地址为:710048 陕西省西安市碑林区金花南路5号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。