恭喜复旦大学刘金羽获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜复旦大学申请的专利一种基于视听觉多模态的视频音源分离方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114446317B 。
龙图腾网通过国家知识产权局官网在2025-04-04发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210093434.5,技术领域涉及:G10L21/028;该发明授权一种基于视听觉多模态的视频音源分离方法是由刘金羽;冯瑞;张玥杰设计研发完成,并于2022-01-26向国家知识产权局提交的专利申请。
本一种基于视听觉多模态的视频音源分离方法在说明书摘要公布了:本发明公开了一种基于视听觉多模态的视频音源分离方法,具有这样的特征,包括以下步骤:步骤1,对视频的视觉信息和听觉信息进行特征提取,得到视觉标签和听觉特征;步骤2,将视觉标签和听觉特征放入多实例多标签网络,得到听觉特征与视觉标签的关联值;步骤3,将视频和关联值放入音源分离网络中,得到每一个对象的单独声音,其中,步骤2中,多实例多标签网络的训练包括以下步骤:步骤2‑1,构建初始多实例多标签网络;步骤2‑2,将一个视频中所得到的所有音频特征向量作为训练集放入多实例多标签网络中训练,得到每个音频特征向量和所有视觉对象的关联特征图。
本发明授权一种基于视听觉多模态的视频音源分离方法在权利要求书中公布了:1.一种基于视听觉多模态的视频音源分离方法,其特征在于,包括以下步骤:步骤1,对视频的视觉信息和听觉信息进行特征提取,得到视觉标签和听觉特征;步骤2,将所述视觉标签和所述听觉特征放入多实例多标签网络,得到听觉特征与视觉标签的关联值;步骤3,将所述视频和所述关联值放入音源分离网络中,得到每一个对象的单独声音,其中,步骤2中,所述多实例多标签网络的训练包括以下步骤:步骤2-1,构建初始多实例多标签网络;步骤2-2,将一个视频中所得到的所有音频特征向量作为训练集放入所述多实例多标签网络中训练,得到每个音频特征向量和所有视觉对象的关联特征图。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人复旦大学,其通讯地址为:200433 上海市杨浦区邯郸路220号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。