申请/专利权人:江苏大学
申请日:2020-12-30
公开(公告)日:2024-04-09
公开(公告)号:CN112861615B
主分类号:G06V20/40
分类号:G06V20/40;G06V10/25;G06N3/0464;G06N3/092;G06V10/82
优先权:
专利状态码:有效-授权
法律状态:2024.04.09#授权;2021.06.15#实质审查的生效;2021.05.28#公开
摘要:本发明公开了一种基于深度目标检测的垃圾乱投放行为识别方法,通过构建深度网络参数模型并对所构建的深度网络参数模型进行优化;将优化的深度网络参数模型移植到服务器,服务器通过连接摄像头RTSP地址获取视频流,对视频流的内视频取帧,进行行人和垃圾的初步识别,获得识别框大小和数量,并对识别框大小和目标检测数量进行加权求和得到数值S;使用一个二维队列β存放数值S;监控队列β中数值S的变化幅度,当队列β中变化幅度大于设定的阈值时记录下当前时间戳和摄像头编号;将时间戳和摄像头编号发送给客户端;本方法的识别方法具有普适性好、速度快、精度高等优点,无需为每个摄像头配置参数。直接接入服务器即可进行并行运算。
主权项:1.一种基于深度目标检测的垃圾乱投放行为识别方法,其特征在于,包括如下步骤:步骤1,构建深度网络参数模型并对所构建的深度网络参数模型进行优化;构建深度网络参数模型的方法为:步骤1.1,通过深度学习框架torch构建yolov3目标检测网络参数,采用训练数据集完成yolov3网络参数模型的训练;步骤1.2,对yolov3中shortcut层中的DBL模块中BatchNormalization层的参数γ进行求和,去掉参数γ和最低的10个,然后再使用原始数据集进行强化训;步骤2,将优化的深度网络参数模型移植到服务器,服务器通过连接摄像头RTSP地址获取视频流,对视频流的内视频取帧,进行行人和垃圾的初步识别,获得识别框大小和数量,并对识别框大小和目标检测数量进行加权求和得到数值S;计算数值S的方法为:数值S=目标检测框大小÷3550+目标检测的数量×1.2;步骤3,使用一个二维队列β存放步骤2得到的数值S;步骤4,对二维队列β进行滤波,去除跳点和噪点;步骤5,设定一个阈值,监控队列β中数值S的变化幅度,当队列β中变化幅度大于设定的阈值时记录下当前时间戳和摄像头编号;步骤6,将时间戳和摄像头编号发送给客户端,客户端通过时间戳和摄像头编号查询硬盘录像机,调取相关视频进行报警。
全文数据:
权利要求:
百度查询: 江苏大学 一种基于深度目标检测的垃圾乱投放行为识别方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。