恭喜南京大学孙正兴获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜南京大学申请的专利一种基于隐式表示的三维场景语义补全方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114782603B 。
龙图腾网通过国家知识产权局官网在2025-06-13发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210481019.7,技术领域涉及:G06T15/00;该发明授权一种基于隐式表示的三维场景语义补全方法是由孙正兴;骆守桐;孙蕴瀚;王一设计研发完成,并于2022-05-05向国家知识产权局提交的专利申请。
本一种基于隐式表示的三维场景语义补全方法在说明书摘要公布了:本发明公开了一种基于隐式表示的三维场景语义补全方法,包括如下步骤:步骤1,隐式编解码网络搭建:搭建用于生成隐式表示的隐表示编码网络以及用于隐式表示解码的隐表示解码网络;步骤2,隐表示语义标签生成;步骤3,隐表示编解码网络训练:根据随机梯度下降算法,利用隐表示语义标签训练隐表示编解码网络;步骤4,体素语义补全结果生成。本发明通过解耦粒度与网络结构之间的直接联系,达到在不调整网络并重训练的前提下满足变粒度的需求的效果。本发明可以实现任意粒度的场景补全,可以满足不同的应用场合对于场景模型几何变粒度的需求。
本发明授权一种基于隐式表示的三维场景语义补全方法在权利要求书中公布了:1.一种基于隐式表示的三维场景语义补全方法,其特征在于,包括如下步骤: 步骤1,隐式编解码网络搭建:搭建用于生成隐式表示的隐表示编码网络以及用于隐式表示解码的隐表示解码网络; 步骤2,隐表示语义标签生成:对于每一个训练样本,在三维空间随机采样一定数量的点,根据给定的体素级标签计算每一个点的类别标签,生成隐表示语义标签; 步骤3,隐表示编解码网络训练:根据随机梯度下降算法,利用隐表示语义标签训练隐表示编解码网络; 步骤4,体素语义补全结果生成:输入RGB图像和深度图像,使用隐表示编码网络计算场景的隐表示特征编码,根据指定分辨率生成采样空间,从该采样空间中均匀采点,并使用隐表示解码网络计算每个点的语义标签,最终通过体素结果生成模块得到最终的体素补全结果; 其中,步骤1中所述隐式编解码网络搭建,包括以下步骤: 步骤1-1,搭建隐表示编码网络 步骤1-2,搭建隐表示解码网络 步骤1-1中所述搭建隐表示编码网络包括以下步骤: 步骤1-1-1,二维特征提取:构建RGB图像特征提取网络Frgb以及深度图像特征提取网络Fdep;将RGB图像Irgb输入Frgb得到二维RGB特征将深度图像Idepth输入Fdep得到二维深度特征 步骤1-1-2,2D到3D反投影:给定一个以坐标系原点为中心、长宽高分别为Ds,Ws,Hs的盒型空间S以及一张给定的特征图像f,其形状为H×W×ch,其中,H为特征图像的高,W为特征图像的宽,ch为特征图像的通道数,给定相机内参K以及外参P,对于特征图像上一点坐标x=u,v,则特征图像上该点的特征向量为fx,计算x在三维空间中的坐标X=P-1K-1x,若X落在了盒型空间S的外部,则忽略该点,否则,X处的特征向量为fX且fX=fx; 将三维空间体素化为h×w×d的体素V,h,w,d分别表示体素的高、宽以及长方向上的栅格数量;每个栅格的长宽高为并计算X所属的栅格的索引i,j,k,i,j,k分别表示高、宽以及长方向上的索引值;对于每一个栅格,如果该栅格内没有点落在其中,则将该栅格的特征向量设置为全0向量,如果该栅格内有p个点落在其中,则通过最大池化方式计算该栅格的特征向量; 二维RGB特征经过2D到3D的反投影得到RGB体素特征二维深度特征经过2D到3D的反投影得到深度体素特征 步骤1-1-3,多尺度三维特征补全:构建下采样网络Fdown和上采样网络Fup;构建特征补全网络Fu并计算特征金字塔,所述特征补全网络包括两个串联的下采样网络以及两个个串联的上采样网络RGB体素特征经过特征补全网络之后得到RGB特征金字塔深度体素特征经过特征补全网络之后得到深度特征金字塔 步骤1-1-4,融合:通过逐元素相加的方式融合RGB特征金字塔以及深度特征金字塔得到隐表示特征编码其中,fimp的形状为h×w×d×chp,chp是fimp的通道数; 步骤1-2中所述搭建隐表示解码网络包括以下步骤: 步骤1-2-1,特征采样; 步骤1-2-2,向量拼接; 步骤1-2-3,隐式解码; 步骤1-2-1中所述特征采样的方法包括: 对于盒型空间S的任意一点X和隐表示特征编码fimp,计算该点所属的栅格索引i,j,k,并根据该索引的值去采样特征; 步骤1-2-2中,所述向量拼接的方法包括:将采样得到的特征fsam和X进行拼接得到查询向量fquery; 步骤1-2-3中,所述隐式解码的方法包括:搭建局部解码器,将查询向量fquery输入局部解码器得到该点的类别的置信分数
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京大学,其通讯地址为:210046 江苏省南京市栖霞区仙林大道163号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。