首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明公布】一种基于改进SwinTransformer的图片分类方法_西藏大学_202311097860.7 

申请/专利权人:西藏大学

申请日:2023-08-29

公开(公告)日:2023-11-28

公开(公告)号:CN117132825A

主分类号:G06V10/764

分类号:G06V10/764;G06V10/82;G06N3/0464;G06N3/08

优先权:

专利状态码:失效-发明专利申请公布后的撤回

法律状态:2023.12.19#发明专利申请公布后的撤回;2023.11.28#公开

摘要:本发明公开了一种基于改进SwinTransformer的图片分类方法,涉及图片分类技术领域。本发明至少包括以下步骤:S1:搭建SwinTransformer图片分类框架,通过采用滑窗操作、层次化构建方式构建Transformer,进而构成了由窗口多头自注意力层、滑动窗口多头自注意力层、标准化层和多层感知机构成的SwinTransfomer模型。本发明基于自注意机制的深度神经网络SwinTransformer模型,具有多头自注意力机制,可以通过此机制进行特征提取,使用自注意力机制相比于单独采用CNN模型能学习到全局特征,可以减少对外部信息的依赖,能更好地捕获数据或特征内部的相关性,从而提取更强有力的特征,从而便于对图片进行分类,大大提高了分类的便捷性和实用性。

主权项:1.一种基于改进SwinTransformer的图片分类方法,其特征在于:至少包括以下步骤:S1:搭建SwinTransformer图片分类框架,通过采用滑窗操作、层次化构建方式构建Transformer,进而构成了由窗口多头自注意力层、滑动窗口多头自注意力层、标准化层和多层感知机构成的SwinTransfomer模型;S2:改进SwinTransfomer模型的数据集的准确率,图像分类ViT网络与SwinTransformer图片分类框架的配合设计;S3:对SwinTransfomer模型进行训练;S4:改进泛化能力,针对SwinTransformer图片分类框架进行训练样品不足的辅助提升,采用Mixup和CutMix等基于混合的数据增强方法能够提高视觉Transformer的泛化能力;S5:将图片输入SwinTransfomer模型中,基于全局的自注意力计算会导致平方倍的复杂度,对每个窗口单独进行计算;S6:采用滑动窗口多头自注意力层模块,将窗口多头自注意力层进行偏移,当窗口发生偏移,窗口之间能进行信息交流;S7:得到分类图像。

全文数据:

权利要求:

百度查询: 西藏大学 一种基于改进SwinTransformer的图片分类方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。