首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】基于关键行为识别的移动端短视频高光时刻剪辑方法_西安电子科技大学_202310085888.2 

申请/专利权人:西安电子科技大学

申请日:2023-02-09

公开(公告)日:2024-05-14

公开(公告)号:CN116095363B

主分类号:H04N21/234

分类号:H04N21/234;H04N21/2343;H04N21/44;H04N21/4402;H04N21/8549

优先权:

专利状态码:有效-授权

法律状态:2024.05.14#授权;2023.05.26#实质审查的生效;2023.05.09#公开

摘要:本发明公开了一种基于关键行为识别的移动端短视频高光时刻剪辑方法,主要解决现有智能剪辑方法存在的高光时刻素材识别不准确、剪辑结果观感生硬、剪辑步骤繁琐的问题。其方案为:1获取输入的视频和图片素材;2对输入视频素材构建抽帧序列;3对抽帧序列进行关键行为检测4根据检测结果结果分割视频素材;5对输入的图片素材和4中分割的非关键行为视频切片进行场景分割;6对分割后的场景进行高光图像帧筛选;7对高光图像帧和4中得到的关键行为视频切片按照时间顺序剪辑,得到高光时刻视频。本发明可准确识别输入剪辑素材中的关键行为和高光帧,剪辑结果观感流畅,剪辑步骤简单,可用于手机、平板、智能相机等移动端设备。

主权项:1.一种基于关键行为识别的移动端短视频高光时刻剪辑方法,其特征在于,包括以下步骤:1对用户筛选的图像帧和视频剪辑素材按照拍摄时间进行排序,并对用户输入的视频素材进行抽帧,得到多个视频素材的抽帧序列;2从多个视频素材的抽帧序列中获取细粒度的关键行为标签;2a从公开网站中下载现有的四个深度学习模型,即训练好的目标检测模型、目标追踪模型、姿态估计模型、骨骼行为识别模型;2b将步骤1中获得的每个视频素材的抽帧序列逐帧输入到现有的目标检测模型,输出画面中每个人物的最小外接矩形框坐标数据,作为人物BoundingBox坐标数据;2c将人物BoundingBox坐标数据输入到现有训练好的目标追踪模型中,输出每个人物在整个视频素材序列上的连续唯一ID标识符,即对输入的视频素材进行行人重识别;2d将连续多帧检测到的人物BoundingBox坐标数据输入到现有训练好的的姿态估计模型,输出每个人物BoundingBox坐标数据对应的人体骨骼关键点坐标序列数据;2e将连续多帧的人体骨骼关键点坐标序列数据输入现有训练好的的骨骼行为识别模型,按照每个人物的唯一ID标识符依次输出关键行为的检测结果;2f对上述输出的人物BoundingBox坐标数据、每个人物的连续唯一ID标识符、人体骨骼关键点坐标序列数据以及关键行为的检测结果进行合并,输出关键行为的起始和结束时间戳、关键行为的类别、关键行为发生的画面区域信息,构成一个细粒度的关键行为标签;3基于输出的细粒度关键行为标签信息,对原始视频自动进行剪辑分割,切分并输出包含完整关键行为的视频切片素材以及不包含关键行为的视频切片素材;4对用户筛选的图像帧素材及步骤3得到的不包含关键行为的视频切片素材按照拍摄时间戳排序,并对排序后的图像帧和视频素材进行场景分割,对分割后的每个场景执行高光帧检测,根据每个场景中所有图像帧的质量评估结果挑选一帧图片作为该场景的高光帧检测结果输出;5将步骤3得到的包含完整关键行为的视频切片素材和步骤4得到的每个场景下的高光帧图像帧素材,按照时间顺序进行排序、剪辑,输出高光时刻视频。

全文数据:

权利要求:

百度查询: 西安电子科技大学 基于关键行为识别的移动端短视频高光时刻剪辑方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。