首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】一种生成式多模态互利增强视频语义通信方法_南京邮电大学_202310687966.6 

申请/专利权人:南京邮电大学

申请日:2023-06-12

公开(公告)日:2024-06-18

公开(公告)号:CN116939320B

主分类号:H04N21/80

分类号:H04N21/80;H04N21/233;H04N21/234;H04N21/2343;H04N21/2383;H04N21/439;H04N21/44;H04N21/4402;H04N21/438;G06F18/25;G06N3/048;G06N3/0475;G06N3/0499;G06N3/0464;G06N3/0455;G06N3/09

优先权:

专利状态码:有效-授权

法律状态:2024.06.18#授权;2024.04.09#实质审查的生效;2023.10.24#公开

摘要:本发明公开了一种生成式多模态互利增强视频语义通信方法,称为MME‑SC。该方法建立在条件生成对抗网络CGAN的基础上,旨在使用文本作为主要传输载体,利用不同模态之间的互利增强来实现目标语义信息的精准提取,从而完成视频传输任务。在多模态互利增强网络的帮助下,我们从视频的关键帧图像和音频中提取语义信息,并进行差值处理,以确保提取的文本以更少的比特传达准确的语义信息,从而提高系统的容量。此外,本发明设计了一个多帧语义检测模块,以督促视频生成过程中的语义过渡。仿真结果表明,本发明出的框架在复杂噪声环境中对视频的传输具有较高的鲁棒性,特别是在低信噪比条件下,显著提高了视频通信中语义传输的准确性和符号传输速率。

主权项:1.一种生成式多模态互利增强视频语义通信方法,其特征在于,所述方法包括如下步骤:步骤1:预训练文本-图像生成对抗网络和文本-音频生成对抗网络,统称为条件生成对抗网络CGAN网络;步骤2:对发送端视频片段进行关键帧的判定,对每一关键帧进行语义信息提取并输出三模态特征信息;步骤2-1:对视频的关键帧进行判别;步骤2-2:对每一关键帧图像和音频的模态信息进行特征识别,提取文本语义信息,输出图像文本音频三模态特征向量;步骤3:建立多模态互利增强网络模型,网络以三模态特征向量作为输入,经过特征提取和语义信息差分处理,得到文本特征向量E′i、音频模态附加向量Ti'和图像模态附加向量Vi';步骤3-1:输入单关键帧的图像文本音频三模态特征向量并分别编码;步骤3-2:将文本向量输入到预训练的条件生成对抗网络CGAN网络并生成图像音频;步骤3-3:进行信息差分处理,将步骤2-1中经编码得到的图像音频向量分别与步骤2-2中生成得到的图像音频向量作差分计算,输出文本特征向量E′i、音频模态附加向量Ti'和图像模态附加向量Vi';步骤4:将三模态信息E′i、Ti'、Vi'输入注意力池化层,得到Ht、He、Hv;步骤5:对Ht、He、Hv进行语义编码;设定语义网络集合引入语义相似度ξ是一个在0和1之间的连续值,其中B·代表了基于转换器的句子-双向编码器BERT的预训练模型,s代表原始文本向量,代表编码后的文本向量,T代表向量的转置,||·||代表词嵌入向量的范数;步骤6:进行信道编码,将语义编码结果进行比特编码并模拟实际信道传输;步骤7:进行信道解码,将接收到的信息进行比特解码得到语义信息;步骤8:进行语义解码,将语义信息通过语义网络解码得到原始的三模态信息Ht、He、Hv;步骤9:在接收端进行视频恢复,条件生成对抗网络输入步骤6、7中解码得到的三模态信息Ht、He、Hv,得到图像、音频和文本三模态的帧信息,同时接收端的图像、音频处理器对图像-文本、音频-文本作相应的差分和增强处理,从而恢复原始的视频帧,经过时序处理,得到完整视频片段;步骤9-1:条件生成对抗网络输入解码得到的三模态信息Ht、He、Hv,图像、音频处理器对图像-文本、音频-文本作相应的差分和增强处理,实现图像音频帧信息还原;步骤9-2:多帧信息匹配性纠错,确保视频多帧的一致性和逻辑性,最终恢复出完整的视频片段。

全文数据:

权利要求:

百度查询: 南京邮电大学 一种生成式多模态互利增强视频语义通信方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。