首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明公布】基于指数记忆增强的片段级循环Transformer模型训练方法及装置_湖北珞珈智言科技有限公司_202410347658.3 

申请/专利权人:湖北珞珈智言科技有限公司

申请日:2024-03-26

公开(公告)日:2024-06-14

公开(公告)号:CN118194042A

主分类号:G06F18/214

分类号:G06F18/214;G06F16/332;G06N3/0455;G06N3/048;G06N3/08

优先权:

专利状态码:在审-公开

法律状态:2024.06.14#公开

摘要:本发明公开了一种基于指数记忆增强的片段级循环Transformer模型训练方法及装置,首先构建训练数据集,所述训练数据集中数据包括高质量的通用文本数据和部分领域数据;然后对训练数据集中数据进行片段级分割处理,获得输入序列数据;接着在输入序列数据中添加“记忆token”来实现记忆机制,获得处理后的高质量的通用文本数据和处理后的领域数据;最后使用处理后的通用文本数据预训练Transformer模型,直至训练满足收敛条件;用处理后领域数据微调Transformer模型,直至训练满足收敛条件。本发明能够有效提取全局特征并解决长文本输入问题。

主权项:1.一种基于指数记忆增强的片段级循环Transformer模型训练方法,其特征在于:步骤1:构建训练数据集,所述训练数据集中数据包括通用文本数据和部分领域数据;步骤2:对训练数据集中数据进行片段级分割处理,获得输入序列数据;步骤3:在输入序列数据中添加“记忆token”来实现记忆机制,获得处理后的通用文本数据和处理后的领域数据;对于给定的输入片段τ,添加[mem]token来增强输入,所述[mem]token与序列中的其他token按照相同的方式进行处理;每个[mem]token都是实数向量,在每个片段的token表征的前面添加m个[mem]token表征同时在末尾也添加m个[mem]token表征 其中,是初始值,m是超参数,N是Transformer的层数;片段开始的[mem]token组是读取记忆允许下一个片段的序列token注意到之前片段的记忆状态;片段结束的[mem]token组是写入记忆能够关注到当前片段的所有token表征并更新存储在记忆中的表征 步骤4:使用处理后的通用文本数据预训练Transformer模型,直至训练满足收敛条件;步骤5:用处理后领域数据微调Transformer模型,直至训练满足收敛条件。

全文数据:

权利要求:

百度查询: 湖北珞珈智言科技有限公司 基于指数记忆增强的片段级循环Transformer模型训练方法及装置

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。