Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 恭喜华东交通大学黄渝翔获国家专利权

恭喜华东交通大学黄渝翔获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网恭喜华东交通大学申请的专利基于实时3D目标检测的汽车自动避障系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119323777B

龙图腾网通过国家知识产权局官网在2025-05-23发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411835395.7,技术领域涉及:G06V20/58;该发明授权基于实时3D目标检测的汽车自动避障系统是由黄渝翔;姜楠;孙浚博;王翔宇;赵宏宇;李子莫设计研发完成,并于2024-12-13向国家知识产权局提交的专利申请。

基于实时3D目标检测的汽车自动避障系统在说明书摘要公布了:本发明为基于实时3D目标检测的汽车自动避障系统,所述系统包括:点云数据收集模块、图像数据收集模块、LoGoNet网络和预警与反馈模块,所述LoGoNet网络用于实现对障碍物的实时目标检测,检测是否有障碍物,并判断障碍物的类别。该系统为局部到全局的多模态数据融合网络,能进行实时3D目标检测的汽车自动避障,解决了单一模态的内在局限性,利用图像和激光雷达两者的互补特性,进行局部到全局的多模态融合,通过多源融合来提供更完整的三维环境感知能力,帮助车辆更好地感知周围环境。

本发明授权基于实时3D目标检测的汽车自动避障系统在权利要求书中公布了:1.一种基于实时3D目标检测的汽车自动避障系统,其特征在于,所述系统包括:点云数据收集模块:包括激光雷达,用于收集周围环境的三维点云数据;图像数据收集模块:包括深度相机模块,用于捕获周围环境的二维图像;LoGoNet网络:用于实现对障碍物的实时目标检测;与点云数据收集模块、图像数据收集模块相连接,对收集的点云数据、图像数据进行实时的处理,检测是否有障碍物,并判断障碍物的类别;预警与反馈模块:获得LoGoNet网络的检测结果,设定第一距离阈值、第二距离阈值和第一高度阈值、第二高度阈值,若在前行区域内存在障碍物且为动态目标,则当汽车行驶路线前方检测到障碍物的距离不大于第一距离阈值时,开始避障;若在前行区域内存在障碍物且为静态目标,当汽车行驶路线前方检测到障碍物的高度大于第一高度阈值同时距离不大于第一距离阈值时,重新规划路线进行避障;若在前行区域内存在障碍物且为静态目标,当汽车行驶路线前方检测到障碍物的高度位于第二高度阈值和第一高度阈值之间同时距离不大于第二距离阈值时,重新规划路线进行避障;所述第一距离阈值大于第二距离阈值,第一高度阈值大于第二高度阈值,所述第一距离阈值为20m,第二距离阈值为10m,第一高度阈值为3m,第二高度阈值为0.3m;所述LoGoNet网络包括全局融合模块GoF、局部融合模块LoF、特征动态聚合模块FDA,以激光雷达获得的点云数据P和深度相机模块获得的图像数据I为输入,包括点云分支和图像分支,对于点云分支,在给定输入点云的情况下,使用基于3D体素的骨架网络生成体素特征;再使用区域提议网络RPN处理产生初始的边界框提议,n为边界框提议的数量;对于图像分支,利用2D像素骨架对图像数据I进行处理,得到稠密语义图像特征;将体素特征和稠密语义图像特征输入进全局融合模块GoF,将稠密语义图像特征和边界框提议输入到局部融合模块LoF;通过局部融合模块LoF处理获得局部网格感兴趣区域特征和局部网格融合特征,通过全局融合模块GoF获得全局融合特征;将、、输入进特征动态聚合模块FDA进行交叉模态的融合,输出目标检测结果,所述目标检测结果包括障碍目标的所属类别以及障碍目标在三维空间中的位置和尺寸;所述特征动态聚合模块FDA的处理过程是:将、、按照下式进行聚合,获得聚合特征: =++,将输入CBAM注意力中进行处理后,再与进行残差连接,之后再输入到GLU和残差组成的残差连接块G-RCB中,输出最终含有边界框的分类图片;所述CBAM注意力包括通道注意力模块和空间注意力模块,将CBAM注意力的输入分别作为Query、Key、Value,将三者排列成矩阵输入进通道注意力模块来强调不同通道中的特征,通道注意力模块的公式表示为: ,其中,是指sigmoid函数;、为通过MLP训练得到的参数,、,R为隐藏激活大小,r为缩减率,C为通道数;b为偏置参数;和分别为经过平均池化和最大池化在空间维度上压缩特征所生成的两个不同的空间上下文描述符;为通道注意力特征;空间注意力模块用于强调特征中的空间区域,其公式表示为: =,其中,表示滤波器77的卷积操作,和分别为在通道维度上应用平均池化和最大池化所生成的两个2D地图;[;]表示通道维度上拼接操作;为空间注意力特征;先将通道注意力特征与CBAM注意力的输入相乘得到细化的特征F’,将F’作为空间注意力模块的输入;再将空间注意力特征与F’相乘,得到最终自适应细化的特征;所述G-RCB的结构用公式表示为: ,其中,为线性门控单元GLU的输出,为线性门控单元GLU的输入,W为可训练的权重,为G-RCB的整体输出;所述全局融合模块GoF用于获取全局特征,流程为:输入的体素特征和稠密语义图像特征,通过在同一体素中对所有点的空间位置求平均,得到求平均后的每个体素特征的点质心:接下来,为每个点质心分配一个体素网格索引,并通过哈希表匹配相关的体素特征;利用相机投影矩阵M’以及点质心计算出图像平面上的参考点: ,其中,M’用于将三维空间中的点投影到二维图像平面上;为矩阵乘法;同时通过在体素特征上通过线性层进行线性投影得到采样偏移量和注意权重;稠密语义图像特征学习到偏移量,根据公式生成图像特征;在参考点的基础上,对参考点周围的一组图像特征按照公式(3)进行聚集,生成聚集图像特征, (3)其中,和为可学习权值,为注意头的个数,K为总采样点数;和分别表示第m个注意头中第k个采样点的采样偏移量和注意权重,O为可训练的参数;h是可训练的偏置向量;将每个体素特征表示为查询,将聚集图像特征表示为键K和值V,其中输入进CBAM注意力处理后与K、V进行级联,之后再与求平均后的每个体素特征进行拼接得到融合体素特征;最后,对执行ROI池化,生成全局融合特征;所述局部融合模块LoF包括网格点动态融合模块GDF,用于动态融合点云特征和图像特征,对图像特征进行局部多模态特征融合;所述网格点动态融合模块GDF的过程是:给定每个边界框提议,将其划分为规则的体素网格,其中j为体素网格索引;取中心点作为对应体素网格的网格点,使用位置信息编码器PIE对边界框提议的位置信息进行编码,为每个边界框提议生成一个网格特征;对所有的边界框提议进行PIE处理,得到局部网格感兴趣区域特征=,为编码后的局部原始点云位置索引;在局部网格感兴趣区域特征上进行线性投影得到采样偏移量和注意权重,稠密语义图像特征学习到偏移量,根据生成图像特征,按照公式(3)进行聚集,生成聚集图像特征; (3)其中,和为可学习权值,为注意头的个数,K为总采样点数;O为可训练的参数;h是可训练的偏置向量;将局部网格感兴趣区域特征表示为查询,将聚集图像特征表示为键K和值V,其中输入进CBAM注意力处理后与K、V进行级联,之后再与局部网格感兴趣区域特征进行拼接得到网格点动态融合特征;再将进行ROI池化,得到局部网格融合特征,获得局部融合模块的输出;点云数据收集模块收集的三维点云数据进行以下增强处理:(1.1)点云数据的收集场景为日常生活的道路场景,一个收集场景下的点云数据为一个点云集合,将收集好的所有点云集合构成点云数据集,同时在每个点云场景下利用深度相机模块随机拍摄至少5张RGB图像,所有点云场景下拍摄的RGB图像构成图像数据集,一个点云场景下的点云集合与对应的RGB图像构成一个样本数据,所有样本数据构成数据集;(1.2)设置X和Y轴的检测距离为[-75.2m,75.2m],Z轴的检测距离为[-2m,4m],体素大小设置为(0.1m、0.1m、0.15m);XYZ表示点云的空间坐标轴;(1.3)将收集到的点云数据进行中心归一化;(1.4)再将点云数据在[-]范围内进行以Z轴为旋转轴的随机旋转,模拟车辆在不同方向上的场景;(1.5)再对点云数据使用[0.95,1.05]范围内的缩放因子进行全局缩放,模拟不同距离下的观测效果;(1.6)最后,向点云数据中添加随机噪声,模拟真实世界中的传感器噪声,得到增强后的点云数据集。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人华东交通大学,其通讯地址为:330013 江西省南昌市经开区双港东大街808号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。