首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

高速铁路定位器螺栓备母缺陷的检测方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:北京交通大学

摘要:本发明提供了一种高速铁路定位器螺栓备母缺陷的检测方法。该方法包括:构建改进的YOLOv3模型框架,调整YOLOv3模型框架的检测尺度,获取高速铁路定位器螺栓备母的图像数据集,对图像数据集进行扩充处理;将扩充处理的图像数据集输入到改进的YOLOv3模型框架中,得到分割了定位器区域的图像数据;用基于Retinanet模型的目标检测算法对分割了定位器区域的图像数据进行定位器螺栓备母缺陷检测,得到定位器螺栓备母缺陷的状态种类。本发明将改进的YOLOv3算法应用到定位器检测中,针对数据图像中定位器区域所占比重情况,修剪算法分支,可实现对于定位器螺栓备母缺陷的检测和识别,降低了专业要求,增加了工程应用性。

主权项:1.一种高速铁路定位器螺栓备母缺陷的检测方法,其特征在于,构建改进的YOLOv3模型框架,调整YOLOv3模型框架的检测尺度,所述方法具体包括:获取高速铁路定位器螺栓备母的图像数据集,对图像数据集进行扩充处理;将扩充处理的图像数据集输入到改进的YOLOv3模型框架中,得到分割了定位器区域的图像数据;用基于Retinanet模型的目标检测算法对分割了定位器区域的图像数据进行定位器螺栓备母缺陷检测,得到定位器螺栓备母缺陷的状态种类;所述的获取高速铁路定位器螺栓备母的图像数据集,对图像数据集进行扩充处理,包括:在高速铁路天窗期,利用高速综合检测车在高速铁路上滑动对铁路线路进行拍照,获取高速铁路定位器螺栓备母的图像数据集,对所述图像数据集进行扩充处理,该扩充处理包括图片旋转、图片缩放、图片分辨率调节、添加噪音和图像模糊方式中的至少一项,将扩充后的图像数据集按照适当比例划分为训练集、验证集和测试集;所述的构建改进的YOLOv3模型框架,调整YOLOv3模型框架的检测尺度,包括:构建改进的YOLOv3模型框架,该改进的YOLOv3模型框架包括26x26和13x13两个特征层,每个特征层的预设边界框尺寸根据COCO数据集聚类得到,anchor先验锚框为6个,利用特征融合技术将包含不同信息的不同尺度层卷积神经网络的特征图进行融合,使用Darknet53网络作为图像特征提取网络,利用所述训练集中的图像数据训练所述Darknet53网络;用图像标注软件对所述训练集的图像数据进行定位器螺栓备母缺陷的标注,得到包含缺陷区域框的图像数据,采用k-means聚类算法对包含缺陷区域框的图像数据进行聚类,设置不同的k值,统计对应的误差平方和误差平方和的值,找到最优的k值,得到对应的k个聚类中心,将k个聚类中心作为改进的YOLOv3模型框架的初始候选框参数,写入改进的YOLOv3模型框架的配置文件,得到训练好的改进的YOLOv3模型框架;所述的将扩充处理的图像数据集输入到改进的YOLOv3模型框架中,得到分割了定位器区域的图像数据,包括:将所述测试集中的图像数据输入到训练好的改进的YOLOv3模型框架中,YOLOv3模型框架初始的输出结果为带有预测框的定位器数据图片,再利用python基础算法提取预测框区域,并且放大定位器区域,得到分割了定位器区域的图像数据;所述的用基于Retinanet模型的目标检测算法对分割了定位器区域的图像数据进行定位器螺栓备母缺陷检测,得到定位器螺栓备母缺陷的状态种类,包括:将所述改进的YOLOv3算法输出的分割了定位器区域的图像数据集分成训练集、验证集和测试集,利用训练集和测试集中的图像数据,对现有的Retinanet算法进行训练,将训练好的Retinanet算法模型进行保存;用训练好的Retinanet算法模型的现有目标检测算法对分割了定位器区域的图像数据进行定位器螺栓备母缺陷检测,Retinanet算法模型输出带有预测框的定位器数据图片,同时利用预测框的四个坐标点位置将预测框还原到原始数据图像上,计算出原始数据图像上的还原的预测框与原标记框的交叠率IOUresult,设定IOUresult的阈值为0.5,当IOUresult0.5认为检测到缺陷目标,判断定位器螺栓备母缺陷的状态为破损或者缺失,为负样本;当IOUresult≤0.5认为没有检测到缺陷目标,判断定位器螺栓备母缺陷的状态为正常正样本,获取高速铁路定位器螺栓备母的图像数据集包括以下:步骤S1,对图像数据集进行扩充处理,对高速铁路定位器螺栓备母的图像数据集中的图像数据进行预处理,通过图片旋转、图片缩放、图片分辨率调节、添加噪音和图像模糊方式实现图像数据集的扩充,将扩充后的图像数据集按照适当比例划分为训练集、验证集和测试集,训练深度学习模型,利用深度学习模型使用已有数据来预测未知的数据,深度学习模型对未知数据的预测能力称为泛化能力,为了评估一个模型的泛化能力,会将数据分成训练集和测试集,训练集用来训练模型,测试集用来评估模型的泛化能力,而验证集则是对学习出来的模型,调整分类器的参数,在神经网络中选择隐藏单元数,验证集用来确定网络结构或者控制模型复杂程度的参数,步骤S2、构建改进的YOLOv3模型框架,调整YOLOv3模型框架的检测尺度,YOLOv3算法使用深度神经网络进行对象的位置检测以及分类,采用直接预测目标对象的边界框的方法,将候选区和对象识别这两个阶段合二为一,增加了多尺度检测,以及更深的网络结构Darknet53,YOLOv3算法通过使用Darknet53作为backbone提取图像特征,利用5个下采样层输出3个尺度的输出层,其大小分别13*13,26*26,52*52,然后直接在输出层回归边界框的位置及其所属的类别,利用特征融合技术将包含不同信息的不同尺度层卷积神经网络的特征图进行融合;由于定位器在图像中的占比较大,因此去掉网络的1个下采样层,从而剪掉了原本YOLOv3的52x52输出尺度,YOLOv3使用的Darknet53的模型结构,Darknet53中的尺寸是在上述训练集上训练的,YOLOv3输入的图像尺寸是统一的416x416,预测的三个特征层大小分别是52x52、26x26和13x13,三个特征图层如下所示: 其中预设边界框尺寸都是根据COCO数据集聚类得到的,COCO数据集的全称是CommonObjectsinContext,是进行图像识别的数据集,MSCOCO数据集中的图像分为训练、验证和测试集,52x52是对应于小目标的检测尺度,而定位器的缺陷数据中定位器占据了图片中较大的比重,移除52x52层,改进的YOLOv3模型框架包括26x26和13x13两个特征层,同时将anchor先验锚框减少到6个,减少的anchor需要与相应尺度匹配,用图像标注软件对上述训练集的图像数据进行定位器螺栓备母缺陷的人工标注,得到包含缺陷区域框的图像数据,采用k-means聚类算法对包含缺陷区域框的图像数据进行聚类,设置不同的k值,统计对应的误差平方和SSE即SumoftheSquaredErrors误差平方和的值,找到最优的k值,得到对应的k个聚类中心,然后,将k个聚类中心作为的YOLOv3模型框架的初始候选框参数,写入配置文件,得到训练好的改进的YOLOv3模型框架,步骤三、基于改进的YOLOv3算法实现定位器区域的初步提取,移除52x52层的YOLOv3算法更适应于检测占据图片较多比重的定位器区域,将上述测试集中的图像数据输入到训练好的改进的YOLOv3模型框架中,YOLOv3模型框架初始的输出结果为带有预测框的定位器数据图片,再利用python基础算法提取预测框区域,使预测框区域生成为新的定位器区域放大了的图片数据,即得到分割了定位器区域的图像数据,以便于定位器区域螺栓备母的缺陷检测,步骤四、基于Retinanet算法实现定位器螺栓备母缺陷的目标检测,针对训练过程中类别不平衡这个阻碍问题,设计出loss函数,focalloss;focalloss是一个能够动态缩放的损失函数,当正确类别的置信度提高时缩放因子衰减为0,缩放因子可以自动降低easy例子在训练期间贡献loss的权重,使得模型注重hard例子,定位器螺栓备母缺陷的状态种类包括螺栓备母破损、缺失和正常,将上述改进的YOLOv3算法输出的分割了定位器区域的图像数据集分成训练集、验证集和测试集,通过训练集和测试集中的图像数据,对现有的Retinanet算法进行训练,将训练好的Retinanet算法模型进行保存,用上述训练好的Retinanet算法模型的现有目标检测算法对分割了定位器区域的图像数据进行定位器螺栓备母缺陷检测,缺陷的目标识别结果中包括螺栓备母破损、缺失和正常三类,Retinanet算法的输出结果为带有预测框的定位器数据图片,同时利用预测框的四个坐标点位置将预测框还原到原始数据图像上,计算出原始数据图像上的还原的预测框与原标记框的交叠率,即还原的预测框与原标记框的交集与并集的比值IOUresult,最理想情况是完全重叠,即IOUresult为1,设定IOUresult的阈值为0.5,当IOUresult0.5认为检测到缺陷目标,判断定位器螺栓备母缺陷的状态为破损或者缺失,为负样本,当IOUresult≤0.5认为没有检测到缺陷目标,判断定位器螺栓备母缺陷的状态为正常,为正样本,根据图像数据的定位器螺栓备母缺陷的检测结果和图像数据对应的铁路线路的定位器螺栓备母缺陷的实际状况得出预测框的类型为真正例TP、假正例FP、真反例TN或者假反例FN,根据所述真正例TP,假正例FP,真反例TN或者假反例的数据计算出所述Retinanet算法模型的性能评估指标:P准确率、R召回率、AP精度均值和mAP平均精度均值的值,根据性能评估指标:P准确率、R召回率、AP精度均值和mAP平均精度均值的值调整所述Retinanet算法模型的参数,计算Retinanet模型性能评估指标,P准确率,R召回率,AP精度均值,mAP平均精度均值,准确率,召回率,AP值计算如下: 同时将缺陷识别后的分割图片还原到初始图片数据上,以便于将识别结果发送至缺陷结果输出模块,作为辅助检测结果交由相关检测人员做最后判断。

全文数据:

权利要求:

百度查询: 北京交通大学 高速铁路定位器螺栓备母缺陷的检测方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。