申请/专利权人:西藏大学
申请日:2023-08-29
公开(公告)日:2023-11-28
公开(公告)号:CN117132825A
主分类号:G06V10/764
分类号:G06V10/764;G06V10/82;G06N3/0464;G06N3/08
优先权:
专利状态码:失效-发明专利申请公布后的撤回
法律状态:2023.12.19#发明专利申请公布后的撤回;2023.11.28#公开
摘要:本发明公开了一种基于改进SwinTransformer的图片分类方法,涉及图片分类技术领域。本发明至少包括以下步骤:S1:搭建SwinTransformer图片分类框架,通过采用滑窗操作、层次化构建方式构建Transformer,进而构成了由窗口多头自注意力层、滑动窗口多头自注意力层、标准化层和多层感知机构成的SwinTransfomer模型。本发明基于自注意机制的深度神经网络SwinTransformer模型,具有多头自注意力机制,可以通过此机制进行特征提取,使用自注意力机制相比于单独采用CNN模型能学习到全局特征,可以减少对外部信息的依赖,能更好地捕获数据或特征内部的相关性,从而提取更强有力的特征,从而便于对图片进行分类,大大提高了分类的便捷性和实用性。
主权项:1.一种基于改进SwinTransformer的图片分类方法,其特征在于:至少包括以下步骤:S1:搭建SwinTransformer图片分类框架,通过采用滑窗操作、层次化构建方式构建Transformer,进而构成了由窗口多头自注意力层、滑动窗口多头自注意力层、标准化层和多层感知机构成的SwinTransfomer模型;S2:改进SwinTransfomer模型的数据集的准确率,图像分类ViT网络与SwinTransformer图片分类框架的配合设计;S3:对SwinTransfomer模型进行训练;S4:改进泛化能力,针对SwinTransformer图片分类框架进行训练样品不足的辅助提升,采用Mixup和CutMix等基于混合的数据增强方法能够提高视觉Transformer的泛化能力;S5:将图片输入SwinTransfomer模型中,基于全局的自注意力计算会导致平方倍的复杂度,对每个窗口单独进行计算;S6:采用滑动窗口多头自注意力层模块,将窗口多头自注意力层进行偏移,当窗口发生偏移,窗口之间能进行信息交流;S7:得到分类图像。
全文数据:
权利要求:
百度查询: 西藏大学 一种基于改进SwinTransformer的图片分类方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。