申请/专利权人:东南大学
申请日:2021-05-08
公开(公告)日:2024-06-21
公开(公告)号:CN113326740B
主分类号:G06V20/40
分类号:G06V20/40;G06V10/774;G06V10/82;G06N3/0464
优先权:
专利状态码:有效-授权
法律状态:2024.06.21#授权;2021.09.17#实质审查的生效;2021.08.31#公开
摘要:本发明公开了一种改进的双流交通事故检测方法。收集事故和非事故视频数据集,以及事故相关交通拥堵图片数据集和事故无关交通拥堵图片数据集,并将视频数据集划分为训练集和测试集;提取训练集和测试集中每个视频的关键帧和光流数据;搭建双分支的事故检测模型,包含以关键帧为输入的外观特征提取网络和以光流数据为输入的运动特征提取网络;构建包含三元组损失和交叉熵损失的联合损失函数以训练事故检测模型;利用测试集中的视频数据对训练完毕后的事故检测模型进行有效性评估。本发明降低了模型的误报率和漏检率,提高了模型事故检测精度。
主权项:1.一种改进的双流交通事故检测方法,其特征在于,包括以下步骤:1收集事故和非事故视频数据集,以及事故相关交通拥堵图片数据集和事故无关交通拥堵图片数据集,并将视频数据集划分为训练集和测试集;2提取训练集和测试集中每个视频的关键帧和光流数据;3搭建双分支的事故检测模型,包含以关键帧为输入的外观特征提取网络和以光流数据为输入的运动特征提取网络;4构建包含三元组损失和交叉熵损失的联合损失函数以训练事故检测模型;5利用测试集中的视频数据对训练完毕后的事故检测模型进行有效性评估;步骤3的具体过程如下:301选择轻量化的卷积神经网络MobileNetV3作为外观特征提取网络,将视觉注意力机制模块嵌入到MobileNetV3的第三个MaxPooling层之前;302拓宽卷积神经网络MobileNetV3的第一层卷积层的输入维度至64,并将其作为运动特征提取网络;303输入关键帧至外观特征提取网络中,提取视频的事故外观特征;304输入光流数据至运动特征提取网络中,提取视频的事故运动特征;305利用全连接层融合事故外观特征与事故运动特征。
全文数据:
权利要求:
百度查询: 东南大学 一种改进的双流交通事故检测方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。