首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

基于动态感知的任意点跟踪网络的三维重建方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:浙江大学

摘要:本发明公开了一种基于动态感知的任意点跟踪网络的三维重建方法,实现了一种以视频为输入、估计平滑的相机轨迹的方法。该方法还可以为视频获得密集的点云并重建整个场景。传统的框架通过链接相邻帧的成对光流以获得点轨迹,该过程可能会引入累积误差。此外,运动分割与单视图深度估计相结合经常面临与尺度模糊性相关的挑战。本发明提出了一种动态感知的任意点跟踪网络,该网络利用一致的视频深度和点跟踪,通过估计整个视频序列的密集点跟踪并预测每个点的可见性和动态来解决这些问题。对动态序列以及野外视频进行的大量实验表明,即使在复杂的动态挑战场景中,我们的方法在相机姿态估计和三维重建方面也达到了最先进的性能。

主权项:1.一种基于动态感知的任意点跟踪网络的三维重建方法,其特征在于,包括如下步骤:步骤1:生成视频中待跟踪对象的位置、可见性和动态性;对视频中的每一帧RGB图像进行特征提取,生成密集外观特征图,并通过所述密集外观特征图初始化待跟踪对象的外观特征,计算所述待跟踪对象的外观特征与密集外观特征图中待跟踪对象位置周围的像素的外观特征之间的相关特征;步骤2:构造包含待跟踪对象的位置、可见性、动态性、外观特征和相关特征的输入令牌,并将所述输入令牌输入至Transformer网络;Transformer网络迭代更新待跟踪对象的位置、相关特征,并更新外观特征;迭代结束后,更新可见性和动态性;步骤3:获取视频的每一帧图像的初始深度估计,通过所述初始深度估计获得第二动态性,将步骤2中更新得到的动态性与所述第二动态性相加获得最终的动态性;步骤4:利用步骤2得到的待跟踪对象的位置、可见性和步骤3得到的最终的动态性,筛选出视频中标记为可见且静态的待跟踪对象,并通过可见且静态的待跟踪对象得到初始相机位姿;再通过所述可见且静态的待跟踪对象和初始相机位姿得到精确的静态点云和最终的相机位姿;最后,利用步骤3所述的初始深度估计得到视频中任一帧图像的动态点云,融合所述动态点云与得到的所述精确的静态点云,完成对整个动态场景的三维重建。

全文数据:

权利要求:

百度查询: 浙江大学 基于动态感知的任意点跟踪网络的三维重建方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。