申请/专利权人:东北大学秦皇岛分校
申请日:2024-03-15
公开(公告)日:2024-05-31
公开(公告)号:CN118113848A
主分类号:G06F16/332
分类号:G06F16/332;G06F16/33;G06N3/006
优先权:
专利状态码:在审-实质审查的生效
法律状态:2024.06.18#实质审查的生效;2024.05.31#公开
摘要:本发明公开了一种深度模拟人类性格的大语言模型塑造方法,属于自然语言处理技术领域。该方法的实施包括以下步骤:本地化部署开源大语言模型;搜集“大五人格”性格工程知识库并进行数据处理,创建豆瓣小组进行人格对话语料库收集,撰写性格工程提示词;高效参数LoRA微调大语言模型;通过LangChain组件连接知识库、提示词、微调后的人格大语言模型进行人格文本输出;基于“大五人格”评价标准通过对话语聊评估大语言模型模拟人类性格的实验效果。本发明解决了传统对话聊天机器人单调无趣,难以定制独特语言风格的问题。它旨在通过使用提示词设定角色结合文本嵌入方法,利用外部数据微调大语言模型,使大语言模型输出文本具有人类性格特点,从而构造出能改变深度模拟人类特定性格特点的大语言模型。这一发明在提供精准对话、情感陪伴、心理治疗和安慰等方面可以发挥良好的效果,同时在医疗领域落地应用中具有广泛前景。
主权项:1.一种深度模拟人类性格的大语言模型LLM塑造方法,其特征在于,包括以下步骤:步骤S100、在计算机服务器本地部署开源大语言模型,它们具备多领域知识、代码能力、常识推理及运用能力,支持与用户通过自然语言对话进行交互,处理多种自然语言任务。;步骤S200、构建人格数据收集方案。搜集资料构建人格工程知识库,基于人类性格特点撰写提示词,构建人格单轮对话、多轮对话数据集并验证数据集可用性;步骤S300、建立LLM人格调整方案。使LLM具有人格知识,具备人格文本输出能力。所述步骤S300还包括:步骤S301、参数高效微调大语言模型。通过利用从豆瓣小组收集的单轮、多轮人格对话数据集,对LLM进行LoRA高效参数微调。步骤S302、利用LangChain框架组合人格微调大语言模型、人格工程提示词、外部知识库,用以调控大语言模型的输出。LangChain框架提供了一套工具、组件和接口,可简化创建由大型语言模型和聊天模型提供支持的应用程序的过程。利用LangChain提供的通用接口访问微调后的LLM,通过Loader组件加载外部知识库,通过Chain将各个组件进行链接,使用Memory组件保存和管理历史消息。步骤S400、评价性格工程构建结果。
全文数据:
权利要求:
百度查询: 东北大学秦皇岛分校 一种深度模拟人类性格的大语言模型塑造方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。