恭喜长春理工大学重庆研究院詹伟达获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜长春理工大学重庆研究院申请的专利一种多场景双波段图像融合方法、装置和可存储介质获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN118037561B 。
龙图腾网通过国家知识产权局官网在2025-05-09发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202410077825.7,技术领域涉及:G06T5/50;该发明授权一种多场景双波段图像融合方法、装置和可存储介质是由詹伟达;隋议萱;于永吉;葛微;郭金鑫;张悦;范晶晶设计研发完成,并于2024-01-19向国家知识产权局提交的专利申请。
本一种多场景双波段图像融合方法、装置和可存储介质在说明书摘要公布了:本发明属于图像融合技术领域,尤其为一种图像融合方法、装置、可存储介质。本发明包括:准备数据集,获取红外图像和可见光图像;将获取的红外图像和可见光图像进行去噪、增强和操作;将预处理好的可见光图像和红外图像进行图像送入场景识别网络,得出图像的场景,然后再将红外图像和可见光图像送入图像融合网络,根据不同场景进行不同的特征提取,特征融合,特征重建后,得到融合图像。本发明可以通过判断图像场景来选择的融合策略,使融合图像包含更多的信息,更符合人眼视觉效果。
本发明授权一种多场景双波段图像融合方法、装置和可存储介质在权利要求书中公布了:1.一种多场景双波段图像融合方法,其特征在于,该方法包括以下步骤:步骤1,准备数据集,获取红外图像和可见光图像;步骤2,构建网络模型,包括场景识别网络与图像融合网络;所述步骤2包含场景识别网络和图像融合网络;其中,所述场景识别网络包含预训练好的卷积神经网络,图神经网络,全连接层和Softmax层;所述卷积神经网络用于提取图像全局特征,所述图神经网络用于增强全局特征,所述全连接层和Softmax层用于将特征进行分类得到场景得分;所述图像融合网络包含解码器和编码器;所述编码器包含卷积块一、卷积块二、卷积块三、卷积块四、多场景特征提取模块和注意力特征提取模块,所述解码器包含卷积块五、卷积块六、卷积块七、卷积块八;所述编码器用于对红外图像和可见光图像进行特征提取得到红外特征和可见光特征,所述解码器用于将拼接后的红外特征和可见光特征进行特征重建,得到融合图像;所述卷积块一、卷积块二、卷积块三、卷积块四、卷积块五、卷积块六、卷积块七、卷积块八,均包含卷积层,卷积核大小均为3×3,步长和填充均为1,激活函数为R型激活函数;所述多场景特征提取模块根据算法根据不同的图像场景进行不同的特征提取;多场景特征提取模块中卷积核的大小根据场景的不同进行改变,其中的卷积层深度也与场景类别有关;所述的注意力特征提取模块将卷积块一至四提取的红外图像和可见光图像特征进行相加,通过注意力网络后得到融合特征,参与到图像的特征融合中;步骤3,训练网络模型,使用准备好的数据集对场景识别网络进行训练,然后再对场景识别网络和图像融合网络进行训练;步骤4,选择合适的损失函数并确定本方法的最优评价指标,场景识别网络模型选择合适的损失函数使得输出与人为手动真实标签值损失最小,融合网络模型选择合适的损失函数使得输出的融合图像与输入图像的损失最小,设定训练损失阈值,不断迭代优化模型,直到训练次数达到设定阈值或损失函数的值达到设定阈值范围内即可认为模型参数已预训练完成,保存模型参数,选取数据集中图像输入模型中得到融合图像,使用融合图像效果最优评价指标衡量模型的精度和性能;步骤5,确定模型,固化网络模型参数,确定最终网络模型,进行红外图像与可见光图像融合任务时,直接将多模态图像输入到训练好的端到端网络模型中,得到最终的融合图像。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人长春理工大学重庆研究院,其通讯地址为:400000 重庆市渝北区龙兴镇两江大道618号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。