Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 恭喜福州大学柯逍获国家专利权

恭喜福州大学柯逍获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网恭喜福州大学申请的专利基于自蒸馏和自注意力的目标检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115690440B

龙图腾网通过国家知识产权局官网在2025-05-09发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211396688.0,技术领域涉及:G06V10/40;该发明授权基于自蒸馏和自注意力的目标检测方法是由柯逍;陈秋琴设计研发完成,并于2022-11-03向国家知识产权局提交的专利申请。

基于自蒸馏和自注意力的目标检测方法在说明书摘要公布了:本发明提出一种基于自蒸馏和自注意力的目标检测方法,提出了基于自蒸馏和自注意力的目标检测方法,摒弃传统的知识蒸馏两阶段算法,利用混合图像采用一阶段的自蒸馏算法来提取检测目标的繁华特征,并引入最近兴起的Transformer架构,将卷积神经网络的局部特征和Transformer的全局特征结合起来,在Faster‑RCNN上直接采用三级阈值筛选出高级的候选框,最后进行精确的目标检测。

本发明授权基于自蒸馏和自注意力的目标检测方法在权利要求书中公布了:1.一种基于自蒸馏和自注意力的目标检测方法,其特征在于,包括以下步骤:步骤S1:在目标检测通用数据集上引入自蒸馏机制训练特征提取网络;步骤S2:提取出步骤S1训练获得的各层网络特征,利用Transformer网络进行二次特征提取;步骤S3:将步骤S1和步骤S2提取到的特征利用特征融合策略并引入注意力机制进行精细特征融合;步骤S4:采用Faster-RCNN目标检测模型对获取到的特征进行分类和回归,得到目标检测结果;步骤S1具体包括以下步骤:步骤S11:从网络上获取公开的通用目标检测数据集,并获得训练数据的相关标注;步骤S12:在通用目标检测数据集的训练集中进行随机采样,选取两张图像分别为p1和p2,在p1和p2之间执行像素级图像混合,构造混合图像pmixup;混合图像pmixup的标签qmixup是在以相同混合比例用one-hot编码的真实标签q1和q2的之间的线性插值,q1和q2分别表示的是原始图像p1和p2的真实标签;步骤S13:将混合图像pmixup和两张原始图像p1和p2一同放入ResNet101模型训练,原始图像p1和p2推断出的概率分布为和并利用线性插值推断出混合图像的插值概率分布为混合图像pmixup推断出的概率分布为通过推断出的混合图像的插值概率分布对模型预测出来的混合图像的概率分布进行监督;混合图像的插值概率分布的计算公式如下: 其中,λ表示的是原始图像p1和p2的混合比例,混合图像的推测概率分布H,W,C分别表示的是图像推测出的特征概率分布的高度、宽度以及通道数,R表示实数集;步骤S14:利用平方L2范数实现混合图像的插值概率分布和混合图像的预测概率分布之间的相互对齐,计算公式如下: 其中,Lfeature表示的是混合图像的插值概率分布和预测概率分布之间相互对齐所采用的损失值;步骤S15:对同一阶段的特征映射引入鉴别器鉴别器是对从线性插值或混合图像中生成的特征映射进行分类,鉴别器的损失函数Lskd采用的二元交叉熵损失,其计算公式如下: 其中,K表示的模型一次性输入的图片数量,k是对K从一开始的枚举;步骤S2包括以下步骤:步骤S21:在步骤S13中将图像放入ResNet101模型中进行特征提取,对提取出的ResNet101模型的多层特征引入Transformer架构,以提取更加高级的特征:定义ResNet101模型输出的第三层特征为fres3,定义ResNet101模型输出的第四层特征为fres4,定义Transformer模型输出的第三层特征为sres3,定义Transformer模型输出的第四层特征为sres4,引入自注意力机制,先对fres3和fres4进行下采样,然后将fres3和fres4分别用RelAttention注意力机制提取更加高级的特征,输出的新的高级特征图为f'res3和f'res4;步骤S22:为了巩固原有的信息,引入FFN网络,将得到的新的高级特征图f'res3和f'res4输入到里面,并在此基础上引入残差的机制,将fres3和fres4与得到的高级特征相加,最后得到Transformer架构输出的两层特征,分别为sres3和sres4,其计算如下:sres3=fres3+FFNRelAttentiondownsamplefres3sres4=fres4+FFNRelAttentiondownsamplefres4其中,FFN·表示的是前馈神经网络,downsample·表示的是一次下采样操作;步骤S3具体包括以下步骤:步骤S31:对Transformer模型中得到的高级特征sres3和sres4进行维度匹配,直接将sres3进行一次1×1的卷积得到维度为C的特征;步骤S32:对步骤S1和步骤S2得到的特征进行特征融合,首先将sres3和fres3进行特征融合,并且为了充分利用捕获到的位置信息,使感兴趣的区域能够被准确地捕获,引入CoordinateAttention注意力机制,对融合后的s'res3进行特征增强;步骤S33:将sres4、fres4、s'res3进行特征融合,先经过一个LRN模块将激活的神经元抑制周围的神经元,以增加特征的泛化能力,最后将三个特征沿着通道数维度拼接在一起,得到最终的高级特征sfinal。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人福州大学,其通讯地址为:350108 福建省福州市闽侯县福州大学城乌龙江北大道2号福州大学;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。