Document
拖动滑块完成拼图
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

一种基于迁移学习深度算子网络的相似电路动态行为建模方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:西北工业大学

摘要:本发明公开了一种基于迁移学习深度算子网络的相似电路动态行为建模方法,属于电路状态估计领域。该方法主要步骤分为选取与生成电路激励函数ft、采集电路响应函数真实值yt、获取最佳源模型、构建混合损失函数、源模型参数转移、微调目标模型网络参数。本发明的有益效果:充分结合了TL与DeepONet的优势,与DeepONet相比,以更低的数据采集成本、更少的迭代次数完成近似电路的动态行为建模,在精度、鲁棒性与适应性方面,具有显著优势。

主权项:1.一种基于迁移学习深度算子网络的相似电路动态行为建模方法,其特征在于,主要包括如下步骤:步骤一:选取与生成电路激励函数ft:从高斯随机场中GaussianRandomField,GRF生成一系列不同的电路激励函数ft,如公式 其中 代表高斯过程,即ft服从均值为0,协方差为klt,t'的高斯分布;其中,t和t'为ft的时间点,llength-scale为长度尺度参数,决定ft的复杂程度,klt,t'是指在高斯过程中使用的径向基函数核,用来描述不同时间点之间的相关性;按照此步骤生成源域fSt与目标域中的标签fTLt与未标签fULt;步骤二:采集电路响应函数真实值yt:针对电路响应为零状态响应的情况,即上述中的yt变为yzst;电路包含基尔霍夫电压或电流等物理定律,电路的ft与yzst的关系可由定律下的偏微分方程进行显式表达;针对每一个步骤一生成的fSt与fTLt,可利用模型离散化,即微分方程的数值积分解法获得对应的电路响应函数真实值yzst,其中包括源任务需要的源域yzsSt与目标任务需要的目标域yzsiTLt,故得到源域标签数据集与目标域数据集NS为源域样本个数,NTL与NUL分别为目标域中的标签样本个数与未标签样本个数;步骤三:获取最佳源模型,包括如下子步骤:子步骤一:源域电路激励函数fSt预处理;假设x服从均值为μ,标准差为σ的高斯分布,则标准化后的数据可以通过以下公式计算: 采用式对分支网络的输入,即fSt进行预处理,使其满足标准正态分布;子步骤二:建立初始DeepONet源模型结构;电路的时域传递特性可由式表示,Gft:ft→yzst4Gft称之为算子;初始DeepONet源模型结构采用两个独立的子网络:上行分支网络和下行主干网络;分支网络用于处理ft,采用简单形式的离散采样点[ft1,ft2,...,ftm]近似代表ft并作为分支网络的输入,m为离散采样点的个数;以yzst的时间点t作为主干网络的输入,二者经过若干全连接层处理后进行点积,最终得到每个ft对应下的任一时间t的电路响应预测值DeepONet源模型的其分支网络由一维卷积层和全连接层组成,卷积层用于提取fSt的特征,便于目标模型使用;主干网络使用简单形式的全连接网络,将二者的输出结果进行点积运算得到每个fSt下的电路响应预测值GSfStwS,bS,其中GS为源域算子,wS和bS为源模型的网络参数;子步骤三:源模型训练与更新;利用步骤二所获得的源域数据集进行训练;假设样本个数NS足够大,训练过程中采用均方误差MSE回归损失Lr,如式, 其中n为每个yzsiSt上的采样时间点数;经过多次迭代训练后,当MSE小于特定的阈值时,模型训练完成,即相当于学习到GS,并保存源模型最佳网络参数wS*和bS*;步骤四:构建混合损失函数子步骤一:计算目标任务回归损失目标模型用于对相似电路进行建模;对于标签数据,使用以MSE作为回归损失Lr对模型进行训练,wT和bT为目标模型的网络参数,GT为目标域算子,GTifTLtk为每个fTLt下的电路响应预测值,如式; 其中n为每个yzsiTLt上的采样时间点数;子步骤二:引入条件嵌入运算符差异ConditionalEmbeddingOperatorDiscrepancy,CEOD对于未标签数据本发明将CEOD用于衡量目标数据中标签数据和未标签数据的条件分布差异通过计算两个分布的经验条件嵌入运算符的希尔伯特-施密特范数进而计算差异,作为另外一个CEOD损失项LCEOD将由标签目标数据主导的条件分布的全局特性考虑在内;为了计算DCEOD,将分支网的第一个全连接层的输出bf1fTLt和bf1fULt作为随机变量XTL和XUL,以标签数据yzsTL和网络输出值GTfjTU作为随机变量YTL和YUL,并通过式计算和的条件分布差异性; 其中ΦyzsTLt与为与yzsTLt和bf1fTLt相关的矩阵,可由式 计算得出;φx与ψy分别是x和y从原始空间到再生核希尔伯特空间的映射;称为运算符,η取很小的常数,I为单位矩阵,ηI可看作为正则化,为格拉姆矩阵,可以通过高斯内核KXX'i,j=kxi,xj计算得到;子步骤三:确定加权系数基于子步骤一和二,混合损失函数Lh如下: λ1和λ2为二者的权重系数,本发明采用基于多任务的不确定性确定两个子任务的加权系数的方法;对于回归任务,定义其似然为以网络输出fw,bx为期望的高斯似然,即:py|fw,bx=Nfw,bx,λ10其中y为标签值,λ为加权系数;则多任务模型的似然为:py1,...,yk|fw,bx=py1|fw,bx...pyk|fw,bx11其对数似然为: TL-DeepONet模型同时优化数据拟合回归和全局分布匹配两个任务,假设输出标签值分别是y1和y2,则计算总对数似然为: 取对数: 若想最小化负对数似然,就需要调整λ1和λ2的值;λ1增大,Lr相应减小,反之亦然;最后一项logλ1λ2可以看作正则化项;步骤五:源模型参数转移;将源模型中的wS*和bS*,其中包括卷积层的权值wcS*和偏差bcS*,以及全连接层的权值wfS*和偏差bfS*,直接转移到与源模型结构相同的目标模型,作为目标模型的初始化参数,将其称为TL-DeepONet;步骤六:微调目标模型网络参数;如图1中黑色线和红色线所示,通过源模型参数转移的方式对目标模型参数进行初始化后,冻结卷积层参数,通过最小化混合损失函数Lh对TL-DeepONet分支网中的全部全连接层以及主干网的最后一层进行参数更新;与此同时,为了避免当某些参数远离其起点时产生过拟合,为不同的层设置不同权重,并在迭代过程中使用一致的学习率;当Lh小于特定的阈值时,相似电路的动态行为建模完成。

全文数据:

权利要求:

百度查询: 西北工业大学 一种基于迁移学习深度算子网络的相似电路动态行为建模方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。