申请/专利权人:哈尔滨理工大学
申请日:2024-03-02
公开(公告)日:2024-06-25
公开(公告)号:CN118247820A
主分类号:G06V40/16
分类号:G06V40/16;G06T7/70;G06N3/0455;G06V10/46;G06N3/047;G06N3/08
优先权:
专利状态码:在审-公开
法律状态:2024.06.25#公开
摘要:本发明公开了一种基于SwinTransformer的多任务学习视线估计方法,包括以下步骤:1获取人脸图像及头部姿态;2搭建SwinTransformer网络,进行人脸特征提取及头部姿态估计;3构建多任务学习网络架构:将2所提取的人脸特征和头部姿态估计一起输送到多任务学习网络中;4计算损失函数得到视线估计方向:将特征提取的凝视特征和头部姿态估计经过3对各损失函数组合成一个联合损失函数并计算得到视线方向。本发明结合头部姿态估计与视线估计并使用SwinTransformer和多任务学习的方法,提高视线估计的准确性,增强鲁棒性和泛化性。
主权项:1.一种基于SwinTransformer的多任务学习视线估计方法,其特征在于:所述方法通过以下步骤实现:步骤1:获取人脸图像及头部姿态:对输入视频帧图片使用人脸检测算法进行人脸检测;使用头部姿态检测算法对图像进行头部姿态检测;步骤2:搭建SwinTransformer网络,进行人脸特征提取及头部姿态估计:将步骤1检测的人脸图像使用搭建的SwinTransformer网络进行特征提取;头部姿态使用PnP算法对头部姿态进行估计;步骤3:构建多任务学习网络架构:将步骤2所提取的人脸特征和头部姿态估计一起输送到构建的多任务学习网络架构中;步骤4:计算损失函数得到视线估计方向:将人脸特征提取的凝视特征和头部姿态估计经过步骤3对其损失函数分别分配权重组合成一个联合损失函数,计算得到最终的视线方向。
全文数据:
权利要求:
百度查询: 哈尔滨理工大学 一种基于Swin Transformer的多任务学习视线估计方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。