首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

一种安全场论下车辆与弱势道路使用者交互预测方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:合肥工业大学

摘要:本发明公开了一种安全场论下车辆与弱势道路使用者交互预测方法,涉及道路交通安全技术领域,包括将交叉口平面俯视图初始化一个n×m的网格区域,运用安全势能场理论获得每一帧视频的安全势能场网格图;基于注意力机制的CNN‑GRU混合神经网络构建交互预测模型,以安全势能场网格图作为模型输入,输出未来一段时间内的交互运动参数预测数据;并计算得到后侵入时间PET,从而对交互冲突进行定级;通过交互预测模型深入解构车辆与弱势道路使用者之间的交互行为机理,挖掘二者交互时行为存在的隐藏特性,从而提升预测准确性和可靠性,且通过后侵入时间PET实现对人车交互过程中的冲突风险进行量化。

主权项:1.一种安全场论下车辆与弱势道路使用者交互预测方法,其特征在于,包括以下步骤:1通过拍摄获取交叉口视频,并对拍摄视频进行预处理,通过视频预处理判断车辆、弱势道路使用者行驶走向,提取出处于运动状态车辆、弱势道路使用者的运动参数数据;2根据步骤1中提取出的同一帧下的车辆与弱势道路使用者信息,筛选出存在交互的车辆与弱势道路使用者,将筛选出的存在交互的车辆与弱势道路使用者的运动参数数据;3将交叉口平面俯视图初始化一个n×m的网格区域,运用安全势能场理论将空间交互关系表达为每个网格受存在交互的车辆与弱势道路使用者势能场的影响,计算出步骤2中筛选出的每一帧视频中的每个网格的安全势能大小,每个网格的安全势能大小为存在交互的车辆与弱势道路使用者在各网格形成的势能数值之和,获得每一帧视频的安全势能场网格图;4基于注意力机制的CNN-GRU混合神经网络构建交互预测模型,将步骤3中每一帧视频的安全势能场网格图作为模型输入,对模型进行训练;交互预测模型包括空间特征提取部分和时间特征提取部分,将每一帧的安全势能场网格图依次输入空间特征提取部分,输出为一个序列帧的特征向量,序列帧的特征向量与相同序列帧下的人车运动参数进行对应帧的拼接,形成时间特征提取部分的输入集,输入集作为时间特征提取部分的输入,通过编码过程、注意力机制以及解码过程,输出未来一段时间内的交互运动参数预测数据;5实时获取交叉口视频,将每一帧视频中存在交互的车辆与弱势道路使用者的空间交互关系用安全势能场网格图表达,将安全势能场网格图输入到训练好的基于注意力机制的CNN-GRU混合神经网络构建交互预测模型中,输出未来一段时间内的交互运动参数预测数据,根据未来一段时间内的交互运动参数预测数据计算得到后侵入时间PET,并根据后侵入时间PET对交互冲突进行定级;所述车辆或弱势道路使用者在网格形成的势能Ev计算公式如下: 其中,Mi为对象i的等效质量;λ、β、ζ为待定系数;a为对象i运动状态的加速度;为网格中心点到对象i质心所在空间坐标x0,y0的夹角;mi为对象i的实际质量;v为对象i运动状态的速度;l为空间网格中心点x,y距离对象i质心的距离;所述空间特征提取部分:该部分采用卷积神经网络CNN,包括两个卷积层、两个池化层和一个全连接层,CNN中卷积层计算公式见式4,全连接层计算公式见式5: On,m为卷积结果矩阵的第n行第m列的数值;Hj,k为卷积核的第j行第k列的数值;I为卷积输入图矩阵;Y=fW*X+b5,Y为输出结果,即特征向量;f为激活函数;W为权重参数;X为全连接层的输入;b为偏置值;所述时间特征提取部分采用编码器-解码器框架作为外部框架,并引入注意力机制,用于学习在沿时间变化时,上下文数据的变化所关注的重点信息,编码器-解码器的目标函数为: 其中,θ为模型学习参数的集合,Xn为模型输入,其为安全势能场网格图,Yn为人车双方的未来实际轨迹与运动参数数值向量;N为训练集总数,pθ为在参数为θ时输入Xn能够由模型得出Yn的概率;对于编码器Encoder和解码器Decoder,均选用门控循环神经网络GRU来实现,模型构建见下述公式:zt=σWz·[ht-1,xt]7,rt=σWr·[ht-1,xt]8, 其中,Zt为第t个神经元的更新门的输出值;rt为第t个神经元的重置门的输出值;ht为第t个神经元的隐藏状态;xt为第t个神经元的输入数据;为候选隐藏状态;σ和tanh为激活函数;Wz、Wr、W为权重矩阵,属于学习参数;初始化C0和h0均置为零向量。

全文数据:

权利要求:

百度查询: 合肥工业大学 一种安全场论下车辆与弱势道路使用者交互预测方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。