Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 恭喜南京大学李昀获国家专利权

恭喜南京大学李昀获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网恭喜南京大学申请的专利一种基于ZNCC算法和神经网络的实时立体匹配方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114972474B

龙图腾网通过国家知识产权局官网在2025-06-10发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210595064.5,技术领域涉及:G06T7/593;该发明授权一种基于ZNCC算法和神经网络的实时立体匹配方法是由李昀;徐新;常穹;施毅设计研发完成,并于2022-05-28向国家知识产权局提交的专利申请。

一种基于ZNCC算法和神经网络的实时立体匹配方法在说明书摘要公布了:本发明公开了一种基于ZNCC算法和神经网络的实时立体匹配方法,能既快速又准确地通过目标图像与参考图像计算出深度图像。首先,对输入的RGB图像进行下采样,并转换为灰度图像,得到低分辨率的灰度图像,然后,利用ZNCC算法进行低分辨率图片的匹配成本计算,并通过SGM算法、WTA算法、SMP算法生成初始的低分辨率的视差图,然后,通过神经网络算法得到高分辨率的视差图,最后,将其转换为深度图像。本发明方法是基于传统方案和神经网络算法的混合系统,其中,传统方案用以快速生成视差图,神经网络着重于对视差图的放大优化。通过本发明的技术方案,实现了实时立体视觉匹配系统,且系统具有很高的精确度。

本发明授权一种基于ZNCC算法和神经网络的实时立体匹配方法在权利要求书中公布了:1.一种基于ZNCC算法和神经网络的实时立体匹配方法,其特征在于,包括:步骤1:对输入的RGB图像进行下采样并转灰度图,得到低分辨率的灰度图像;步骤2:利用ZNCC算法、半全局算法、胜者通吃算法、单片匹配相优化进行快速立体视觉匹配,得到误差较大且低分辨率的视差图;步骤3:利用神经网络对步骤2得到的视差图进行放大优化,得到原始分辨率的视差图;步骤4:将步骤3得到的视差图转换为深度图像;所述步骤2包括如下子步骤:步骤2-1:将步骤1得到的灰度图像利用ZNCC算法计算匹配成本,具体包括:定义匹配窗口W,根据下式计算参考图与目标图中像素点的差异: 其中, 以及: 式中,Cx,y,d表示IRx,y和ITx-d,y两个像素点之间的相似度,即为匹配成本,x,y、d分别表示坐标与视差,Cx,y,d的值在0到1之间,值越小,两个像素点越相似;ΔIRx,y表示参考图中的像素点IRx,y减去其邻域的均值之后的结果;ΔITx-d,y表示目标图中的像素点ITx-d,y减去其邻域均值之后的结果;σRx,y和σTx-d,y是匹配窗口W中像素值的标准差;和是匹配窗口W中像素值的平均值;步骤2-2:将步骤2-1得到的匹配成本通过半全局算法进行聚合,具体公式如下: 其中,Crx,y,d表示在r方向上匹配成本的聚合,r代表任意方向;Crx-r,y,d表示在r方向上位于点x,y前面的所有像素视差为d的匹配成本的聚合;Crx-r,y,d+1表示在r方向上位于点x,y前面的所有像素视差为d+1的匹配成本的聚合;Crx-r,y,d-1表示在r方向上位于点x,y前面的所有像素视差为d-1的匹配成本的聚合;P1与P2是惩罚系数;Crx-r,y,i表示在r方向上位于点x,y前面的所有像素视差为i的匹配成本的聚合,i为除了d与d±1以外的任意视差值;k为使得在r方向上位于坐标x,y前面的所有像素匹配成本聚合最小的视差值;最终的成本值CSGMx,y,d从不同方向汇总如下: 最后,通过胜者通吃WTA算法获取初始低分辨率的视差图,具体公式如下:Dmapx,y=argmindCSGMx,y,d其中,Dmapx,y表示低分辨率视差图中坐标为x,y像素点的值;步骤2-3:将步骤2-2得到的低分辨率视差图通过单边匹配相算法进行优化,具体约束方程如下: 其中,D为视差图中最大的视差值,Dmapx-l,y表示视差图中坐标为x-l,y像素点的值,l表示任意小于D的正整数;不满足该方程的点会被标记为无效点,其视差值由左右方向最近且最小的有效值代替;所述步骤3包括如下子步骤:步骤3-1:将步骤2-3得到的视差图及步骤1得到的灰度图像通过神经网络提取特征图,卷积层的通道数为32;步骤3-2:将步骤3-1得到的特征信息进行2次下采样,第一次下采样的输入为步骤3-1中得到的特征图,卷积层的通道数为16,第二次下采样的输入为第一次下采样得到的输出再经残差块提取的特征信息,卷积层的通道数为32,从而得到压缩后的特征图;步骤3-3:将步骤3-2得到的特征图转换为隐分布G,具体公式如下:G=gaussin*expsigma-1+mu-1其中,gaussin表示高斯随机分布;sigma与mu分别为隐分布的方差与均值,并利用神经网络将步骤3-2得到的特征图降维得到;步骤3-4:将步骤3-3得到的隐分布转换为特征图,卷积层通道数为32;步骤3-5:将步骤3-4得到的特征图进行2次上采样,卷积层通道数为16,第一次上采样的输入为步骤3-4得到的特征图与步骤3-2中第二次下采样的输出经残差块提取的特征信息的拼接,第二次上采样的输入为第一次上采样的输出经残差块提取的特征信息和步骤3-2的输出经残差块提取特征信息的拼接,卷积层通道数为16,步骤3-5的输出为重建后的特征图;步骤3-6:将步骤3-5得到的重建后的特征图、步骤3-1得到的特征图、以及步骤2-2得到的低分辨率视差图一起进行上采样,得到原始分辨率的视差图。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京大学,其通讯地址为:210000 江苏省南京市栖霞区仙林大道163号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。