首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明公布】一种基于低秩矩阵分解的大语言模型微调方法_浙江工业大学_202410402548.2 

申请/专利权人:浙江工业大学

申请日:2024-04-03

公开(公告)日:2024-06-07

公开(公告)号:CN118153715A

主分类号:G06N20/00

分类号:G06N20/00;G06F40/20;G06F17/16

优先权:

专利状态码:在审-公开

法律状态:2024.06.07#公开

摘要:本发明属于自然语言处理技术领域,公开了一种基于低秩矩阵分解的大语言模型微调方法,包括获取大语言模型的预训练权重文件以及微调大语言模型所需的问答对;采用双量化方法将预训练权重文件中的模型参数精度进行压缩;将大语言模型结构中的全连接层替换为LoRA层;将精度压缩后的模型参数分批次进行两次反量化并计算得到LoRA层的输出;在每一批次中,根据LoRA层的输出计算损失,并基于损失反向传播动态更新LoRA层的参数,直至所有批次均处理结束,输出微调后的大语言模型。本发明通过设置多个并联的LoRA模块掌握多个领域的知识,然后使用路由模块将输入的问题导向到负责该领域的LoRA模块得到输出。

主权项:1.一种基于低秩矩阵分解的大语言模型微调方法,其特征在于,所述基于低秩矩阵分解的大语言模型微调方法,包括:步骤S1、获取大语言模型的预训练权重文件以及微调大语言模型所需的问答对;步骤S2、采用双量化方法将预训练权重文件中的模型参数精度压缩到NF4数据类型;步骤S3、将大语言模型结构中的全连接层替换为LoRA层,所述LoRA层由两条通路和一个路由模块组成,其中一条通路为大语言模型原始的权重通路,另一条通路由多个LoRA模块并联构成,并且每个LoRA模块由两个低秩矩阵串联构成,所述路由模块将LoRA层不同的输入进行分类后导向至不同的LoRA模块中;步骤S4、将精度压缩后的模型参数分批次进行两次反量化并计算得到LoRA层的输出;步骤S5、在每一批次中,根据LoRA层的输出计算损失,并基于损失反向传播动态更新LoRA层的参数,直至所有批次均处理结束,输出微调后的大语言模型。

全文数据:

权利要求:

百度查询: 浙江工业大学 一种基于低秩矩阵分解的大语言模型微调方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。