申请/专利权人:浙江大学
申请日:2024-05-23
公开(公告)日:2024-06-25
公开(公告)号:CN118247351A
主分类号:G06T7/73
分类号:G06T7/73;G06T7/80;G06V10/80;G06V10/82;G06V10/52;G06N3/0464
优先权:
专利状态码:在审-公开
法律状态:2024.06.25#公开
摘要:本发明公开了一种基于多帧单目相机的实时物体三维位姿估计方法,构建场景三维特征分布场,利用基于门控循环单元的三维卷积神经网络对观测特征和历史特征进行非线性融合,在融合后的特征分布场中用多分支预测网络估计物体三维关键点信息,进行实时位姿估计和优化。本发明融合多帧单目相机观测来估计物体三维位姿,从而能够利用不同视角下的观测来获得较为完整的物体信息,适应复杂环境,抵抗环境遮挡对位姿估计的影响,平均位姿估计精度达到93.5%,在国际领先方法基础上提高了17.6%;既保留了更完整的观测特征信息,又能实现实时融合,平均每帧运算时间为38ms,相比较基于后端优化融合的国际领先方法的平均运算时间132ms,效率提高了71.2%。
主权项:1.一种基于多帧单目相机的实时物体三维位姿估计方法,其特征在于,包括:1)根据相机位姿进行初始化,获得场景参考坐标系、三维栅格空间、场景三维特征分布场;2)获得1张待估计物体图像;3)对所获得的待估计物体图像使用图像处理算法,获得该图像的多尺度图像特征;4)根据相机和场景参考坐标系之间的相对位姿,利用所获得的多尺度图像特征,构建观测三维特征分布场;5)根据所获得的观测三维特征分布场,利用非线性融合算法更新场景三维特征分布场;6)通过神经网络算法,利用所更新的场景三维特征分布场估计物体的场景三维关键点位置;7)结合所获得的场景三维关键点位置和预定义的物体固有坐标系三维关键点位置,计算物体位姿粗估计值;8)根据所获得的物体位姿粗估计值,在场景三维特征分布场中进行采样,获得高分辨率三维特征分布场;9)在所获得的高分辨率三维特征分布场中,进行位姿优化计算,获得输出的物体位姿;重复上述步骤二到步骤九,直到观测停止,不再接收待估计物体图像。
全文数据:
权利要求:
百度查询: 浙江大学 一种基于多帧单目相机的实时物体三维位姿估计方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。