Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 恭喜美众(天津)科技有限公司车宏图获国家专利权

恭喜美众(天津)科技有限公司车宏图获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网恭喜美众(天津)科技有限公司申请的专利一种融合Transformer架构与LoRA训练的虚拟换发型方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119251344B

龙图腾网通过国家知识产权局官网在2025-05-02发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411764605.8,技术领域涉及:G06T11/00;该发明授权一种融合Transformer架构与LoRA训练的虚拟换发型方法及系统是由车宏图设计研发完成,并于2024-12-04向国家知识产权局提交的专利申请。

一种融合Transformer架构与LoRA训练的虚拟换发型方法及系统在说明书摘要公布了:本发明公开了一种融合Transformer架构与LoRA训练的虚拟换发型方法及系统,涉及虚拟换发型技术领域。本发明的技术要点包括:获取有头发的源图片和发型参考图片;提取发型参考图片的发型描述词;对源图片和发型参考图片进行处理,利用发型生成模型生成第一阶段换发型图片;对第一阶段换发型图片和源图片进行处理,获取遮挡发型图片;对遮挡发型图片和发型参考图片的发型描述词进行处理,利用发型重绘DIT模型生成最终的换发型图片;其中发型重绘DIT模型包含多个串联的基于Transformer架构的扩散模型,且引入了针对每一款发型的LoRA训练,使得在生成比较复杂的发型时更加精细。本发明为用户提供了一种高效便捷的虚拟换发型方案,同时也为美发行业带来一种创新的服务模式。

本发明授权一种融合Transformer架构与LoRA训练的虚拟换发型方法及系统在权利要求书中公布了:1.一种融合Transformer架构与LoRA训练的虚拟换发型方法,其特征在于,包括:获取有头发的源图片和发型参考图片;提取发型参考图片的发型描述词;对源图片和发型参考图片进行处理,利用发型生成模型生成第一阶段换发型图片;所述发型生成模型包含多个串联的基于Transformer架构的扩散模型;对第一阶段换发型图片和源图片进行处理,获取遮挡发型图片;对遮挡发型图片和发型参考图片的发型描述词进行处理,利用发型重绘DIT模型生成最终的换发型图片;其中,所述发型重绘DIT模型包含多个串联的基于Transformer架构的扩散模型;包括:对发型描述词进行文本编码,获得文本编码;将遮挡发型图片输入到VAE编码器中,获得重绘背景隐编码;生成隐空间随机高斯噪声,将重绘背景隐编码、隐空间随机高斯噪声和扩张之后的发型二值掩码沿通道进行拼接,得到多通道输入矩阵;将多通道输入矩阵进行分块化处理,再经过线性层处理,并将处理得到的特征图和文本编码一同输入到多个串联的基于Transformer架构的扩散模型中进行循环去噪;得到的输出经过多层感知机处理后,再进行反分块化处理还原回输入的遮挡发型图片大小;将反分块化处理后的结果输入VAE解码器中,获得最终的换发型图片;其中,所述发型生成模型和所述发型重绘DIT模型均是预先训练好的模型,所述发型生成模型训练过程中的损失函数如下所示: ;式中,表示高斯噪声;表示VAE编码器;表示发型生成模型中基于Transformer架构的扩散模型;表示发型参考网络;分别表示发型参考图片和秃顶图片;表示隐空间编码;t表示时间步;表示分布下期望;在所述发型重绘DIT模型的推理过程中利用训练好的低秩适应微调模型对发型重绘DIT模型中基于Transformer架构的扩散模型的权重参数进行微调,微调公式为: ;式中,表示微调后的权重;表示基于Transformer架构的扩散模型的原始权重参数,表示低秩适应微调模型的参数,为分解得到的两个矩阵;所述低秩适应微调模型训练过程中的损失函数如下所示: ;式中,表示低秩适应微调模型中基于Transformer架构的扩散模型;表示文本编码;表示分布下期望。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人美众(天津)科技有限公司,其通讯地址为:301727 天津市武清区曹子里镇花城中路55号昊宇商务中心116室-8(集中办公区);或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。