买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
申请/专利权人:湖北珞珈智言科技有限公司
摘要:本发明公开了一种基于指数记忆增强的片段级循环Transformer模型训练方法及装置,首先构建训练数据集,所述训练数据集中数据包括高质量的通用文本数据和部分领域数据;然后对训练数据集中数据进行片段级分割处理,获得输入序列数据;接着在输入序列数据中添加“记忆token”来实现记忆机制,获得处理后的高质量的通用文本数据和处理后的领域数据;最后使用处理后的通用文本数据预训练Transformer模型,直至训练满足收敛条件;用处理后领域数据微调Transformer模型,直至训练满足收敛条件。本发明能够有效提取全局特征并解决长文本输入问题。
主权项:1.一种基于指数记忆增强的片段级循环Transformer模型训练方法,其特征在于:步骤1:构建训练数据集,所述训练数据集中数据包括通用文本数据和部分领域数据;步骤2:对训练数据集中数据进行片段级分割处理,获得输入序列数据;步骤3:在输入序列数据中添加“记忆token”来实现记忆机制,获得处理后的通用文本数据和处理后的领域数据;对于给定的输入片段τ,添加[mem]token来增强输入,所述[mem]token与序列中的其他token按照相同的方式进行处理;每个[mem]token都是实数向量,在每个片段的token表征的前面添加m个[mem]token表征同时在末尾也添加m个[mem]token表征 其中,是初始值,m是超参数,N是Transformer的层数;片段开始的[mem]token组是读取记忆允许下一个片段的序列token注意到之前片段的记忆状态;片段结束的[mem]token组是写入记忆能够关注到当前片段的所有token表征并更新存储在记忆中的表征 步骤4:使用处理后的通用文本数据预训练Transformer模型,直至训练满足收敛条件;步骤5:用处理后领域数据微调Transformer模型,直至训练满足收敛条件。
全文数据:
权利要求:
百度查询: 湖北珞珈智言科技有限公司 基于指数记忆增强的片段级循环Transformer模型训练方法及装置
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。