首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

基于扩散模型的单图像半身人体音频驱动方法和系统 

申请/专利权人:清华大学

申请日:2024-03-20

公开(公告)日:2024-06-18

公开(公告)号:CN118212329A

主分类号:G06T13/20

分类号:G06T13/20

优先权:

专利状态码:在审-实质审查的生效

法律状态:2024.07.05#实质审查的生效;2024.06.18#公开

摘要:本发明提出一种基于扩散模型的单图像半身人体音频驱动方法和系统,其中方法包括通过获取第一数量的人体动作视频,基于人体动作视频得到第一关键点集合;利用第一关键点集合和人体动作视频的各帧图像训练生成模型;获取第二数量的音频演讲视频,基于音频演讲视频的各帧图像得到第二关键点集合;利用第二关键点集合和音频演讲视频的音频训练扩散模型;获取给定参考人体图像和给定音频;将给定音频输入训练好的扩散模型得到目标关键点集合,基于目标关键点集合、给定参考人体图像和训练好的生成模型生成目标视频,目标视频具有参考人体的外观且具有与给定音频相符的表情动作。利用本发明的方法能够基于单张人体图像实现对该人体的高保真音频驱动。

主权项:1.一种基于扩散模型的单图像半身人体音频驱动方法,其特征在于,包括:获取第一数量的人体动作视频,基于所述人体动作视频得到第一关键点集合;利用所述第一关键点集合和所述人体动作视频的各帧图像训练生成模型;获取第二数量的音频演讲视频,基于音频演讲视频的各帧图像得到第二关键点集合;利用所述第二关键点集合和所述音频演讲视频的音频训练扩散模型;获取给定参考人体图像和给定音频;将所述给定音频输入训练好的扩散模型得到目标关键点集合,基于所述目标关键点集合、所述给定参考人体图像和训练好的生成模型生成目标视频,所述目标视频具有参考人体的外观且具有与给定音频相符的表情动作。

全文数据:

权利要求:

百度查询: 清华大学 基于扩散模型的单图像半身人体音频驱动方法和系统

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。