恭喜西华大学郭承刚获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜西华大学申请的专利一种基于立体匹配深度神经网络获取多尺度视差图方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114723801B 。
龙图腾网通过国家知识产权局官网在2025-06-13发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210415618.9,技术领域涉及:G06T7/55;该发明授权一种基于立体匹配深度神经网络获取多尺度视差图方法是由郭承刚;蒋星光;边啸枫设计研发完成,并于2022-04-20向国家知识产权局提交的专利申请。
本一种基于立体匹配深度神经网络获取多尺度视差图方法在说明书摘要公布了:本发明公开了一种基于立体匹配深度神经网络获取多尺度视差图方法,利用双目立体视觉相机拍摄左、右图像,经过立体校正和极线对齐处理后送入立体匹配深度神经网络;在立体匹配深度神经网络中,先提取左、右图像特征,再利用匹配代价计算模块中对每个分辨率级别上的左右图像特征使用距离度量逐行计算像素间匹配代价,并找到对应的最优像素传输矩阵;再根据最优像素传输矩阵预测出多尺度的初始视差图,并进行精细化处理,从而输出与初始视差图分辨率一致的多尺度视差图。
本发明授权一种基于立体匹配深度神经网络获取多尺度视差图方法在权利要求书中公布了:1.一种基于立体匹配深度神经网络获取多尺度视差图的方法,其特征在于,包括以下步骤: 1、图像采集及预处理; 利用双目立体视觉相机拍摄左、右图像,图像的分辨率为W×H;然后经过立体校正和极线对齐处理,得到左图像IL、右图像IR; 2、利用立体匹配深度神经网络提取多尺度视差图; 2.1、特征提取; 将左图像IL和右图像IR输入至立体匹配深度神经网络,在特征提取模块中先由步长为2的二维卷积下采样块分别进行分辨率逐级减半操作,得到每一级收缩特征; eL,eRm=Downm{eL,eRm-1;θm},m=1,2,…,M 其中,eL,eRm表示第m级收缩后的特征,eL表示收缩的左图像特征,eR表示收缩的右图像特征;θm表示第m级二维卷积下采样块中的卷积核参数;Downm表示下采样操作;M表示总下采样级数; 接着,利用步长为2的二维转置卷积上采样块对每一级收缩特征进行分辨率逐级恢复一倍操作,得到每一级扩张特征; uL,uRm-1=Upm{uL,uRm,Skipm[eL,eRm-1;ηm];μm},m=M,M-1,…,1 其中,uL,uRm-1表示第m-1级扩张后的特征,uL表示扩张的左图像特征,uR表示扩张的右图像特征;Skipm表示跳过连接的二维卷积操作;ηm表示跳过连接中的卷积核参数,μm表示第m级二维转置卷积上采样块中的卷积核参数;Upm表示上采样操作; 2.2、计算初始匹配代价; 在匹配代价计算模块中对每个分辨率级别上的左右图像特征使用距离度量逐行计算像素间匹配代价,其中,第m级分辨率第y行上像素间的初始匹配代价Cmy,xL,xR计算公式为: 其中,表示第m级左图像特征中像素点y,xL的特征值,表示第m级右图像特征中像素点y,xR的特征值;y的取值范围是xL和xR的取值范围均是 2.3、获取第m级分辨率第y行像素间初始匹配代价对应的最优像素传输矩阵πm; 其中,πmy,xL,xR为πm中的元素,表示第m级分辨率左图像特征第y行中像素点y,xL传输到右图像特征第y行中像素点y,xR的最优传输概率值,并且πmy,xL,xR需满足每行之和为1且每列之和也为1; 2.4、输出多尺度视差图; 2.4.1、在πm中遍历每一个行坐标xL,获取行坐标为xL的最优像素传输矩阵πm中最大值对应的列坐标xR,然后计算xL与对应的xR的坐标差,并作为视差值; 其中,dmy,xL表示第m级分辨率预测的初始视差图第y行第xL列的视差值; 2.4.2、在宽度方向上级联所有视差值dmy,xL,构成第m级分辨率第y行的视差向量dmy; 2.4.3、将第m级分辨率下所有行的视差向量在高度方向上级联,构成第m级分辨率预测的初始视差图dm; 2.4.4、将预测的初始视差图dm送入立体匹配深度神经网络的视差精化结构,按照如下公式进行视差精化处理,从而输出与初始视差图分辨率一致的多尺度视差图 其中,Resblocks表示残差卷积模块,Up表示双线性上采样,表示第m+1级视差精化结构输出的精化视差图,表示第m级左图像特征。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人西华大学,其通讯地址为:610039 四川省成都市金牛区土桥金周路999号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。