首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】基于预训练和注意力交互网络的知识型检索式对话方法_华南理工大学_202210346843.1 

申请/专利权人:华南理工大学

申请日:2022-04-02

公开(公告)日:2024-06-21

公开(公告)号:CN114817494B

主分类号:G06F16/332

分类号:G06F16/332;G06F16/33;G06F40/211;G06F40/289;G06N3/0455;G06N3/09

优先权:

专利状态码:有效-授权

法律状态:2024.06.21#授权;2022.08.16#实质审查的生效;2022.07.29#公开

摘要:本发明公开了一种基于预训练和注意力交互网络的知识型检索式对话方法,包括如下步骤:在目标语料库上使用领域适应性预训练方法训练预训练语言模型BERT,得到领域适应性BERT;使用领域适应性BERT作为注意力交互网络的编码器,对对话上下文、背景知识和若干候选响应文本分别编码得到相应表征;最后将对话上下文、背景知识和若干候选响应的表征分别输入到注意力交互网络进行匹配,训练注意力交互网络从若干候选响应中检索出最佳响应。本发明利用预训练语言模型强大的语义表征能力,通过两个预训练任务提高预训练语言模型在特定语料库上的语义表征能力,并采用注意力交互网络缓解为提高检索速度而采用的分离编码所带来的性能下降。

主权项:1.基于预训练和注意力交互网络的知识型检索式对话方法,其特征在于,包括以下步骤:首先在目标语料库上使用领域适应性预训练方法训练预训练语言模型BERT,得到领域适应性BERT;然后使用领域适应性BERT作为注意力交互网络的编码器,对对话上下文、背景知识和若干候选响应文本分别进行编码得到相应表征;最后将对话上下文、背景知识和若干候选响应的表征分别输入到注意力交互网络进行匹配交互,训练注意力交互网络从若干候选响应中检索出最佳响应;领域适应性预训练方法包括以下步骤:S1、使用BERT分词器对获取的对话上下文、背景知识和候选响应文本分别进行分词,获得文本词元列表;S2、在对话上下文和候选响应文本的每一句话语末尾添加代表对话话语的词元[EOU],在背景知识的每一个句子末尾添加代表背景知识的词元[EOK];S3、串联用于预测分类的词元[CLS]、对话上下文词元列表、代表分段的词元[SEP]、候选响应词元列表和代表分段的词元[SEP]作为预训练语言模型BERT的第一输入,串联用于预测分类的词元[CLS]、对话上下文词元列表、代表分段的词元[SEP]、背景知识词元列表和代表分段的词元[SEP]作为预训练语言模型BERT的第二输入;输入到BERT的词元列表总是以预测分类的词元[CLS]开始,以代表分段的词元[SEP]结束;S4、根据第一输入和第二输入对预训练语言模型BERT进行下一句检测任务和掩码语言模型任务的领域适应性预训练,得到领域适应性BERT作为注意力交互网络的编码器;所述注意力交互网络检索最佳响应,包括以下步骤:S5、使用领域适应性BERT作为注意力交互网络的编码器对对话上下文、背景知识和候选响应文本进行分离编码,分别得到三者的表征矩阵;S6、对对话上下文、背景知识和候选响应文本的表征矩阵两两进行交叉注意力计算,并通过向量聚合得到最终的表征向量;S7、在训练阶段,使用对话上下文、背景知识和候选响应文本的表征向量进行点积计算得到匹配评分,计算交叉熵损失,监督训练注意力交互网络;S8、在推理阶段,将获取的对话上下文、背景知识和候选响应文本输入注意力交互网络,计算得到候选响应和对话上下文以及背景知识三者的匹配评分,得分最高的候选响应即为检索出的最佳响应。

全文数据:

权利要求:

百度查询: 华南理工大学 基于预训练和注意力交互网络的知识型检索式对话方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。