首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

一种基于NeRF的空间非合作机动目标联合定位与建模的方法 

申请/专利权人:西北工业大学

申请日:2024-05-01

公开(公告)日:2024-06-14

公开(公告)号:CN118196189A

主分类号:G06T7/73

分类号:G06T7/73;G06T17/00;G06N3/0499

优先权:

专利状态码:在审-实质审查的生效

法律状态:2024.07.02#实质审查的生效;2024.06.14#公开

摘要:本发明公开了一种基于NeRF的空间非合作机动目标联合定位与建模的方法。通过搭载在抓捕星上的单目深度相机在逼近目标星的过程中获取多帧连续RGB‑D图像,使用神经网络隐式地表征目标星的几何结构及外观颜色特征,经过渲染获得采样像素的RGB‑D值,利用与真值之间的偏差构造代价函数优化神经网络的参数,实现对目标星的结构与外观的三维重建,并同时估计抓捕星相对目标星的位姿信息。本发明方法能够对位观测到的部位进行合理预测,避免空洞,充分利用NeRF中的信息同时完成三维重建与位姿估计并具有较强的抗噪声能力。

主权项:1.一种NeRF的空间非合作机动目标联合定位与建模的方法,其特征在于,包括如下步骤:步骤1:通过搭载在抓捕星上的单目深度相机在逼近目标星的过程中获取多帧连续RGB-D图像;步骤2:在NeRF网络中使用神经网络表征目标星的几何结构及外观颜色特征,经过渲染获得各像素的RGB-D值,利用与真值之间的偏差构造代价函数优化神经网络的参数,实现对目标星的结构与外观的三维重建,并同时估计抓捕星相对目标星的位姿信息;步骤2-1:将固定帧数的图像设为一组,每一帧均对抓捕星相对目标星的位姿进行估计,所用到的网络参数为上一组训练更新后的参数;在完成当前组第一帧相对位姿估计后,开始利用第一帧优化网络参数,所用到的位姿信息为当前组第一帧估计所得;步骤2-2:所述NeRF网络为空间中一点坐标xyz、观察方向θφ到颜色、占有概率rgbα的映射;位置三维坐标及观察方向先通过一个映射函数提升到高维空间坐标,再进入一个神经网络获得三维空间点的颜色与占有概率αi;步骤2-3:沿抓捕星相机光心向二维像素采样点发出的射线采集M个三维空间样本点,各三维空间样本点的深度值为di,i=1,2…M,在NeRF网络中查询获得对应的颜色与占有概率αi=FΘpi,则渲染获得的颜色为: 深度为: 其中ωi为pi点的终止概率,由该点的占有概率值计算获得: 沿射线计算深度方差为: 步骤2-4:损失函数;用于优化网络参数及位姿估计的光度损失函数Lp为渲染颜色与实际颜色的L1损失: 几何损失函数Lg为渲染深度与实际深度的L1损失并使用深度方差进行归一化: 则使用光度损失与几何损失的加权和优化网络参数: 在相对位姿估计的过程中用到的优化函数为:

全文数据:

权利要求:

百度查询: 西北工业大学 一种基于NeRF的空间非合作机动目标联合定位与建模的方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。