恭喜南昌航空大学颜予祺获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜南昌航空大学申请的专利一种基于深度学习的动态自适应3D模型生成方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119048696B 。
龙图腾网通过国家知识产权局官网在2025-03-11发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411539829.9,技术领域涉及:G06T17/00;该发明授权一种基于深度学习的动态自适应3D模型生成方法是由颜予祺;毛红梅;徐刘斌;辛韩娜设计研发完成,并于2024-10-31向国家知识产权局提交的专利申请。
本一种基于深度学习的动态自适应3D模型生成方法在说明书摘要公布了:本发明公开了一种基于深度学习的动态自适应3D模型生成方法,包括:S1:构建数据集;S2:构建3D模型生成模型,导入S1中的预处理后的图像至特征提取模块中,获取图像的多尺度特征表示;S3:将S2中的多尺度特征表示导入至特征融合模块进行特征融合,获取融合特征;S4:导入S3的融合特征至3D点云生成模块,获取多视角图像特征生成稠密3D点云;S5:相机模块对S4中的稠密3D点云进行特征点匹配,获取匹配3D点云;S6:网格生成模块通过生成对抗网络对S5中的匹配3D点云进行图像生成,获取对应的3D网格,也即最终的3D模型。本发明通过引入自适应加权融合机制,能够在全局结构和细节特征之间取得良好平衡,确保在各种场景下生成高精度的3D模型。
本发明授权一种基于深度学习的动态自适应3D模型生成方法在权利要求书中公布了:1.一种基于深度学习的动态自适应3D模型生成方法,其特征在于,包括以下步骤:步骤S1:构建数据集,数据集包括若干图像,对图像进行预处理;步骤S2:构建3D模型生成模型,3D模型生成模型包括特征提取模块、特征融合模块、3D点云生成模块、相机模块和网格生成模块,导入步骤S1中的预处理后的图像至特征提取模块中,获取图像的多尺度特征表示;步骤S3:导入步骤S2中的多尺度特征表示至特征融合模块进行特征融合,获取融合特征;步骤S4:导入步骤S3的融合特征至3D点云生成模块,获取多视角图像特征,通过三角化方法对多视角图像特征进行处理,获取初步3D点云,基于初步3D点云进一步引入几何约束和边缘保留机制并融合深度信息来生成稠密3D点云;步骤S5:相机模块对步骤S4中的稠密3D点云进行特征点匹配,获取匹配3D点云,在此过程中,获取动态调整的相机模块的位置和姿态;步骤S6:网格生成模块通过生成对抗网络对步骤S5中的匹配3D点云进行图像生成,获取对应的3D网格,也即最终的3D模型;步骤S1中的对图像进行预处理,具体为:步骤S11:获取图像的最优参数组合;最优参数组合包括最优亮度调整参数、最优降噪系数、最优边缘增强系数和最优对比度参数;步骤S12:图像标准化,使用最优亮度调整参数对图像进行标准化;步骤S13:自适应降噪,通过最优降噪系数对图像中的噪声进行自适应降噪;步骤S14:边缘增强,根据最优边缘增强系数对图像中的边缘进行增强;步骤S15:对比度调整,利用最优对比度参数对图像的对比度进行调整;步骤S2中的导入步骤S1中的预处理后的图像至特征提取模块中,获取图像的多尺度特征表示;具体为:特征提取模块通过构建多尺度卷积神经网络在多个不同的尺度上同时提取输入的图像的特征;表示为: ;其中,表示图像在第个尺度上提取的特征,也即图像的多尺度特征表示,表示多尺度卷积神经网络,表示输入的图像;多尺度卷积神经网络的每个尺度的卷积层具有不同的感受野,用于捕捉不同层次的图像信息;步骤S3具体为:步骤S31:对图像的多尺度特征表示进行加权组合,获取融合特征,表示为: ;其中,表示不同尺度的数量,代表第个尺度的权重;步骤S4具体为:步骤S41:引入视角参数以对应实际场景中的多视角,生成第个视角下的融合特征对应的视角融合特征;表示为: ;其中,表示特征提取操作,采用卷积神经网络实现;表示第个视角下的视角融合特征;对每个视角下的视角融合特征进行加权融合,形成融合视角特征表示,表示为: ;其中,表示动态的权重参数,表示视角的总数;步骤S42:通过三角化方法将融合视角特征表示映射到3D空间中,生成初步的3D点云;三角化方法具体为:获取融合视角特征表示的特征点在第个视角下的2D点,通过相机投影矩阵将2D点与3D点关联起来,形成投影方程,表示为: ; ;其中,表示第个视角下的相机投影矩阵,表示特征点在3D空间中的齐次坐标;使用多个视角下的投影方程获取3D点,通过最小化重投影误差来求解3D点的坐标,表示为: ;其中,表示最小化函数,表示重投影误差;步骤S42具体为:通过对每个融合视角特征表示对应的特征点执行三角化方法,生成包含多个3D点的初步3D点云;表示为: ;其中,且,分别表示通过三角化方法得到的每个特征点的3D坐标的横坐标、纵坐标和竖坐标,表示初步3D点云中的3D点的数量;步骤S43:引入几何约束和边缘保留机制;具体为:定义优化目标,表示为: ;其中,和分别表示初步3D点云中相邻的3D点,表示连接3D点和3D点的权重;步骤S44:融合深度信息从而优化初步3D点云的精度,将深度信息与融合特征进一步融合,生成的稠密3D点云;表示为: ;其中,表示稠密3D点云,表示从第张图像的多尺度特征表示中生成具有深度信息的3D点云,表示图像的总数,是深度信息的权重;步骤S5具体为:步骤S51:相机模块对稠密3D点云中每个特征点对应的各帧图像进行特征提取,并通过FLANN算法获取匹配点,表示为: ;其中,表示匹配得到的特征点,表示FLANN算法;表示在第帧图像数据中提取的特征点集合;表示在第帧图像数据中提取的特征点集合;步骤S52:相机模块利用KLT光流算法对特征点在图像在后续帧中进行跟踪,表示为: ;其中,表示KLT光流算法跟踪得到的特征点轨迹,也即匹配3D点云,表示KLT光流算法;步骤S53:对相机模块进行参数优化,具体为: ;其中,表示最优的相机参数集合,表示误差损失函数;表示在第帧图像数据上,使用当前参数估计得到的3D点云结果;表示将相机参数应用于图像数据从而生成与真实场景匹配的3D点云;表示第帧的真实场景数据;引入自适应学习机制,实时调整各参数的权重,表示为: ;其中,表示基于场景复杂度的自适应权重,表示视频帧的总数;步骤S54:对相机模块在各帧中的位置和姿态进行估计,利用最优的相机参数集合,结合匹配3D点云计算每一帧的相机模块姿态;表示为: ;其中,表示第帧的旋转矩阵,也即相机模块的在各帧中的位置,表示第帧的平移向量,也即相机模块在各帧中的姿态,表示姿态估计函数。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南昌航空大学,其通讯地址为:330063 江西省南昌市红谷滩区丰和南大道696号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。