恭喜穹界智能科技(杭州)有限公司;杭州联汇科技股份有限公司赵天成获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜穹界智能科技(杭州)有限公司;杭州联汇科技股份有限公司申请的专利一种基于大规模问题自学习的无监督机器阅读理解方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN113836895B 。
龙图腾网通过国家知识产权局官网在2025-05-09发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202111151305.9,技术领域涉及:G06F40/211;该发明授权一种基于大规模问题自学习的无监督机器阅读理解方法是由赵天成设计研发完成,并于2021-09-29向国家知识产权局提交的专利申请。
本一种基于大规模问题自学习的无监督机器阅读理解方法在说明书摘要公布了:本发明公开了一种基于大规模问题自学习的无监督机器阅读理解方法,首先将数据分为四种类型:然后按以下步骤进行:S1、对未标注的通用数据使用标准预训练模型进行训练得到预训练语言模型;S2、对已标注的通用数据使用预训练语言模型进行训练得到问题生成器,并生成特定任务通用领域模型;S3、对未标注的域内数据使用问题生成器生成合成的域内数据,然后使用特定任务通用领域模型进行过滤,再对过滤得到的高质量的合成的域内数据集进行训练得到新预训练模型;S4、对已标注的域内数据通过过滤得到的低质量的合成数据集进行混合并标记答案,然后使用新预训练模型进行训练得到最终模型;基于最终模型,输入数据得到机器阅读理解的结果。
本发明授权一种基于大规模问题自学习的无监督机器阅读理解方法在权利要求书中公布了:1.一种基于大规模问题自学习的无监督机器阅读理解方法,其特征在于,首先将数据分为四种类型:未标注的通用数据,已标注的通用数据,未标注的域内数据,已标注的域内数据,然后按以下步骤进行:S1、针对未标注的通用数据,使用标准预训练模型进行训练,得到基于Transformer的预训练语言模型作为架构的最底层;S2、针对已标注的通用数据,使用步骤S1得到的预训练语言模型进行训练得到问题生成器,同时使用已标注的通用数据来生成特定任务通用领域模型;S3、针对未标注的域内数据,使用步骤S2中构建的问题生成器生成合成的域内数据,然后使用特定任务通用领域模型进行过滤,过滤后得到高质量的合成的域内数据集和低质量的合成数据集,再对高质量的合成的域内数据集进行训练得到新预训练模型;S4、针对已标注的域内数据,通过过滤得到的低质量的合成数据集进行混合并标记答案,然后使用新预训练模型进行训练得到最终机器阅读理解模型;基于最终机器阅读理解模型,输入数据得到机器阅读理解的结果;步骤S1中,标准预训练模型为GPT-2模型或者T5模型;基于训练后T5模型进行问题生成具体为:提取答案;依据提取的答案生成问题;接受该问题并产生一个答案;对提取的答案和产生的答案进行比较,判断生成的问题是否正确;基于训练后的GPT-2模型进行问题生成具体为:给定语言的自然顺序,将序列s=s1,…,sn的联合概率分解为条件式的乘积: 在GPT-2模型训练完成后,对每一个新的单词,模型计算出根据现有所有字符为依据,下一个词的概率;然后根据概率,选出前K位的高概率词,在这K个候选词中进行随机采样;这个过程不断重复,直到特殊符号或者句子结束符号出现;针对问题生成这个场景,用特别的符号标注源文中潜在答案的位置,对于一个段落C=[c1,...cn]和其中的一个潜在答案A=[a1,..,an],会被表示为:X=[CLS],C,[SEP],A给定上述X,我们将其输入训练后的GPT-2模型或者训练后的T5中后得到隐向量: X是输入长度,h是隐向量的大小;最后H会再输入一层全链接网络得到最终结果: 式中,w为一个单词,W是一个矩阵,b是系数,最终得到的是argmax输出的最佳单词。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人穹界智能科技(杭州)有限公司;杭州联汇科技股份有限公司,其通讯地址为:311000 浙江省杭州市滨江区长河街道秋溢路399号4号楼3层;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。