Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 恭喜华北电力大学(保定)孙正获国家专利权

恭喜华北电力大学(保定)孙正获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网恭喜华北电力大学(保定)申请的专利一种内窥式光声层析图像中反射伪影的去除方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114612331B

龙图腾网通过国家知识产权局官网在2025-05-09发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210251454.0,技术领域涉及:G06T5/80;该发明授权一种内窥式光声层析图像中反射伪影的去除方法及系统是由孙正;孙美晨设计研发完成,并于2022-03-15向国家知识产权局提交的专利申请。

一种内窥式光声层析图像中反射伪影的去除方法及系统在说明书摘要公布了:本发明提供了一种内窥式光声层析图像中反射伪影的去除方法及系统,涉及医学成像技术领域,获取待成像平面的光声数据组;将光声数据组输入到反射伪影去除模型中,得到待成像平面处去除反射伪影后的光吸收能量分布图;本发明将深度梯度下降网络的输出作为深度学习分割网络的输入得到RAR‑Net神经网络,训练RAR‑Net神经网络得到反射伪影去除模型,能够去除内窥式光声层析图像中反射伪影,提高内窥式光声层析图像的成像精度。

本发明授权一种内窥式光声层析图像中反射伪影的去除方法及系统在权利要求书中公布了:1.一种内窥式光声层析图像中反射伪影的去除方法,其特征在于,所述方法,包括:获取待成像平面的光声数据组;将所述光声数据组输入到反射伪影去除模型中,得到待成像平面处去除反射伪影后的光吸收能量分布图;所述伪影去除模型是根据历史光声数据组对RAR-Net神经网络进行训练得到的;所述RAR-Net神经网络是将深度梯度下降网络的输出作为深度学习分割网络的输入得到的;所述RAR-Net神经网络的训练过程包括:将所述当前训练集输入到第k×epoch×I阶RAR-Net神经网络中,调整第k×epoch×I阶RAR-Net神经网络的参数,得到第k×epoch×I+1阶RAR-Net神经网络;k为迭代轮次;epoch为训练集遍历次数;I为当前训练集的索引;将当前训练集输入到第k×epoch×I阶RAR-Net神经网络中,调整第k×epoch×I阶RAR-Net神经网络的参数,得到第k×epoch×I+1阶RAR-Net神经网络,具体包括:将所述当前训练集中的历史光声数据组输入到第k×epoch×I阶RAR-Net神经网络中,得到第k×epoch×I次迭代时的光吸收能量历史预测分布图;根据历史光吸收能量分布图和第k×epoch×I次迭代时的光吸收能量历史预测分布图,确定深度梯度下降网络的损失为第一损失并确定深度学习分割网络的损失为第二损失;确定深度梯度下降网络的输出层的线性激活响应为第一线性激活响应;确定深度学习分割网络的输出层的线性激活响应为第二线性激活响应;根据所述第一线性激活响应确定深度梯度下降网络的输出层的误差向量为第一输出误差向量;根据所述第二线性激活响应确定深度学习分割网络的输出层的误差向量为第二输出误差向量;根据所述第一损失和第一输出误差向量,利用第一递推公式确定深度梯度下降网络每一层的误差向量为第一误差向量组;根据所述第二损失和第二输出误差向量,利用第二递推公式确定深度学习分割网络每一层的误差向量为第二误差向量组;根据所述第一误差向量组和所述第二误差向量组,确定所述k×epoch×I阶RAR-Net神经网络每一层的梯度;根据所述第k×epoch×I阶RAR-Net神经网络每一层的梯度,利用Adam算法更新多个所述梯度,得到所述第k×epoch×I+1阶RAR-Net神经网络;其中,所述第一损失为:所述第二损失为:所述第一输出误差向量为:所述第二输出误差向量为:所述第一递推公式为:δG,c=WG,c+1TδG,c+1⊙σ'ZG,c;所述第二递推公式为:δU,c=WU,c+1TδU,c+1⊙σ'ZU,c;所述RAR-Net神经网络每一层的梯度为: 其中,LGWG,bG和LUWU,bU分别为第一损失和第二损失;WG和bG分别是深度梯度下降网络的权重参数集和偏置参数集;WU和bU分别是深度学习分割网络的权重参数集和偏置参数集;i是训练集中的样本序号,i=1,2,...,M;M为当前训练集的样本容量;xtrue,i是历史光吸收能量分布图; xk,i和xk+1,i分别是第k次和第k+1次迭代得到的光吸收能量历史预测分布图;θk是第k个网络结构单元的参数;是结构相同、具有不同学习参数θk的RAR-Net;yi是历史光声数据组;xi是深度学习分割网络输出的光吸收能量历史预测分布图;Hxk,i是与xk,i有关的算子;δG,c、δU,c、δG,c+1和δU,c+1分别为RAR-Net神经网络第c层和第c+1层的误差向量,其中下标G表示深度梯度下降网络,下标U表示深度学习分割网络;δG,9和δU,37分别为第一输出误差向量和第二输出误差向量;σ'·表示ReLU函数的一阶导数,ZG,9和ZU,37分别为第一线性激活响应和第二线性激活响应;WG,c+1和WU,c+1均为RAR-Net神经网络第c+1层的权重参数矩阵;ZG,c和ZU,c均为RAR-Net神经网络第c层的线性激活响应;LWG,bG,WU,bU为RAR-Net神经网络的总损失,LWG,bG,WU,bU=αLGWG,bG+LUWU,bU,α为尺度因子:通过收敛速度和重构质量确定;Wc、bc、Zc和δc分别是RAR-Net神经网络第c层的权重参数矩阵、偏置参数向量、线性激活响应和误差向量;在深度梯度下降网络中,即c=1,2,3,…,9时,Wc=WG、bc=bG、Zc=ZG、δc=δG,c;在深度学习分割网络中,即c=10,11,...,37时,Wc=WU、bc=bU、Zc=ZU、δc=δU,c;Xc-1为前向传播中第c–1层网络的输出。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人华北电力大学(保定),其通讯地址为:071003 河北省保定市莲池区永华北大街619号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。