Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 恭喜北京工业大学蒙西获国家专利权

恭喜北京工业大学蒙西获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网恭喜北京工业大学申请的专利一种基于注意力模块化神经网络的城市固废焚烧过程NOx预测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116796185B

龙图腾网通过国家知识产权局官网在2025-03-07发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310467006.9,技术领域涉及:G06F18/214;该发明授权一种基于注意力模块化神经网络的城市固废焚烧过程NOx预测方法是由蒙西;王岩;乔俊飞设计研发完成,并于2023-04-27向国家知识产权局提交的专利申请。

一种基于注意力模块化神经网络的城市固废焚烧过程NOx预测方法在说明书摘要公布了:本发明涉及一种基于注意力模块化神经网络的城市固废焚烧过程NOx预测方法,实现了NOx浓度的准确预测,包括以下步骤:首先,采集数据并对数据进行预处理;其次,确定模型的输入变量和输出变量;然后,采用注意力模块化神经网络建立预测模型;最后,将测试数据作为模型的输入,验证了模型的有效性。本发明有效地实现了NOx浓度的准确预测,具有重要的理论意义和应用价值。

本发明授权一种基于注意力模块化神经网络的城市固废焚烧过程NOx预测方法在权利要求书中公布了:1.一种基于注意力模块化神经网络的城市固废焚烧过程NOx预测方法,其特征在于,包括以下步骤:步骤1、数据预处理及确定模型输入输出变量;数据由连续排放监测系统进行采集,采样间隔时间为30秒;数据预处理包括异常值处理及数据标准化;通过机理分析和最大信息系数算法,确定6个与NOx预测相关的模型输入变量,模型训练集的输入变量包括:t时刻的NOx浓度、焚烧炉炉膛上部温度A、焚烧炉炉膛出口烟温A、焚烧炉炉膛出口烟温B、一次风机入口流量、烟气含氧量;模型训练集的输出变量为t+1时刻的NOx浓度;步骤2、设计基于注意力机制的模块化分区方法,具体如下:模块化指标MQ由模块内的密集程度和模块间的稀疏程度组成,其中,模块内的密集程度计算如下: 其中,JC为模块内的密集程度,P为当前网络中模块的数量,Nl为分配给第l个模块的样本数,xi为第i个训练样本的输入向量,hl和rl分别表示第l个模块的核心节点和作用范围;模块间的稀疏程度基于欧式距离进行计算: 其中,JS为模块间的稀疏程度,dhl,hs代表第l个模块核心节点和第s个模块核心节点间的距离,根据模块内的密集程度JC和模块间的稀疏程度JS,提出模块化指标衡量方式如下: MQ的值越大,该网络的模块化程度越高,基于注意力机制的模块化分区方法如下:首先,根据点密度的思想确定各初始子模块的核心节点;其次,基于注意机制向各个子模块分配样本;然后,通过寻求网络的最大“模块化”来确定现有模块的新核心节点;最后,通过合并距离最近的核心节点并寻求网络的最大“模块化”来确定网络中的最佳模块数;a确定各初始子模块的中心数据集不能明确地描述样本点分布情况,引入点密度思想即样本点分布的密度,若样本点周围的点越多,则在该样本点处的样本分布密度就越大,该样本越有可能成为模块化分区的核心节点;因此,提出一种点密度函数作为初始子模块核心节点的选取方法;对于每个训练样本的输入向量x,其点密度函数的表达式定义如下: dij=||xi-xj||7其中,dij表示两个训练样本输入向量xi和xj间的距离;若xi周围的点越多,则Zi的值越大;计算各个样本的点密度,将点密度最大的前n个训练样本的输入向量作为初始子模块的核心节点,具体设置如下:hi=xZi8 其中,hi和ri分别表示第i个初始子模块的核心节点和作用范围;xZi为第i个点密度最大的训练样本输入向量;ξ为调节系数,取值范围在之间;dmax为训练样本输入向量xi和xj间的最大距离;b基于注意力机制分配样本T时刻,当第T个训练样本xT进入网络时,计算各个子模块对xT的注意力值Attention: 其中,Attentiond为第d个子模块对xT的注意力值,Qd为第d个子模块的核心节点,Qdi为第d个子模块核心节点的第i个分量,K、V为输入样本xT,如式12所示,Ki、Vi为样本xT的第i个分量;Si为相关性值,如式13所得;K=V=xT=[x1,L,xi,L,xk]12子模块d对样本xT注意力值的具体计算步骤如下:1根据Qd和K计算二者的相关性,计算公式为:Si=|Qdi-Ki|132对Si值进行softmax归一化处理得到ai值;3根据步骤2中得到的ai值计算1-ai值;4根据得到的1-ai值对V进行加权求和,得到注意力值Attentiond,完成子模块d对xT的注意力值计算;若第d个子模块对xT的注意力值大于阈值λ,即Attention≥λ,则将xT分配到该模块,λ取0.5;c优化模块为了使网络具有最优的“模块化”程度,根据公式5,分别计算在新增样本和原有模块核心节点分别作为子模块核心节点的情况下整个网络的模块化指标值MQt和MQlmin:若MQlminMQt,选用当前新增样本作为核心节点的网络模块化程度更高,用该样本替换原模块核心节点成为新的模块核心节点,初始参数设置如下:ht=xt14 其中,ht为模块的新核心节点,xt为新增样本的输入向量,rt为模块的作用范围,Nlmin为分到该模块的样本数;若MQlminMQt,当前模块核心节点保持不变,只需要调整该模块的作用范围: 其中,rlmin为模块的作用范围,Nlmin为分到该模块的样本数;当所有训练样本都比较完毕后,样本被分配到了不同的子模块;d合并模块若T时刻,存在两个或两个以上的模块,计算各个模块核心节点之间的欧式距离,当核心节点ci到cj的距离最小,则将两个模块合成一个新的模块,初始参数设置如下: 其中,cnew为合并后模块的核心节点,Zci和Zcj分别为核心节点ci和cj的点密度;根据公式5,分别计算合并模块前和合并模块后整个网络的模块化指标值MQ,并找到MQ值最大时的模块数,此时,网络的模块化程度是最大的,模块化分区形成;步骤3、采用自组织模糊神经网络来构建每个模块对应的子网络,具体如下;①网络结构增长当第一个训练样本进入网络后,将该样本作为第一个RBF神经元的中心、宽度以及到输出层的连接权值:c1=x118σ1=119w1=yd120其中,c1为第一个神经元的中心,x1为第一个训练样本的输入向量,σ1为第一个神经元的宽度,w1为规则化层神经元到输出层神经元的连接权值,yd1为第一个训练样本的输出值;在时间ts时刻,训练误差向量ets由下式获得: 其中,yf是第f个训练样本的期望输出值,是第f个样本在时刻ts的网络输出值;寻找期望输出值和网络输出值相差最大的样本 新增一个规则对第个样本进行学习,补偿当前最大误差;新增规则的中心向量和输出权值设置如下所示:ct=xl24wt=ydl25其中,ct为新增神经元的中心,xl为第l个训练样本的输入向量,wt为规则化层神经元到输出层神经元的连接权值,ydl为第l个训练样本的输出值;每新增一个规则后,计算该规则与已有规则间的欧式距离并寻找最小距离dmin:dmin=min{distct,cj≠t}26基于该最小距离,将新增神经元的宽度σt设置为:σt=αdmin,α∈[0.5,0.9]27其中α根据预测任务的不同进行调整;每次新增规则时,网络参数通过二阶学习算法进行调整;当达到预设最大结构Jmax或期望训练精度E0,网络结构增长过程结束;实验过程中Jmax=10,E0=0.0001,采用误差平方和SSE来衡量网络的训练精度,计算如下: 其中,yi和分别为第i个训练样本的期望输出值以及网络输出值,Ns为子模块s中的样本数;②网络结构修剪为避免网络结构出现冗余,因此提出了基于RBF层神经元激活强度的度量值: 其中,Φj为第j个RBF神经元的输出,Jmins为RBF层激活强度最小的神经元;因此,删除激活强度最小的规则,并通过二阶学习算法调整参数,将删除该规则后的均方根误差值SSE_1与未删除该规则时的均方根误差值SSE_0进行比较;如果SSE_1≤SSE_0,可以在不牺牲网络学习能力的情况下对所选规则进行修剪,然后,重复上述过程,相反,无法删除选定的规则;此时,网络结构修剪过程结束,子网络构建完成;每次删减神经元时,使用二阶学习算法调整参数;③网络参数调整改进二阶学习算法如下所示:△t+1=△t-Qt+μtI-1gt30其中,Δ为需要调整的参数,包括中心、宽度和连接权值;Q为类海森矩阵;gt为梯度向量;I为单位矩阵;μ为学习率参数,取0.01;为了减少雅可比矩阵计算过程中的空间复杂度和时间复杂度,将类Hessian矩阵Q和梯度向量gt的计算转化为子类Hessian矩阵求和和子梯度向量求和: qz为子类Hessian矩阵、ηz为子梯度向量,均可由下式计算得到: 其中,ez为第z个样本的期望输出值yz与网络预测输出值的差值,jz为雅克比向量,计算如下: 根据链式求导法则,式38中雅克比向量中的每个分量计算如下: 其中cj,σj,wj分别为第j个神经元的中心、宽度和到输出层的连接权值,xz是第z个训练样本的输入向量;步骤4、将测试数据作为模型的输入,模型的输出为t+1时刻的NOX浓度预测值:T时刻,当第T个测试样本进入模型后,计算各个子模块对xT的注意力值Attention,当Attention≥λ时,激活相应的子模块对输入样本进行计算;当各子模块对样本进行计算后,输出整合层对各激活子模块的输出进行加权整合: 其中,yr为第r个子网络的输出值,εr为第r个子网络到输出层的权重系数,其根据子网络对输入样本的注意力程度进行确定,计算公式如下: 其中,Attentionr为第r个被激活的子网络对输入样本xT的注意力值;R为被激活的子网络总数。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京工业大学,其通讯地址为:100124 北京市朝阳区平乐园100号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。