Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 恭喜浙江大学何赛灵获国家专利权

恭喜浙江大学何赛灵获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网恭喜浙江大学申请的专利基于残差卷积神经网络的LDCT图像超分辨增强方法及装置获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114255168B

龙图腾网通过国家知识产权局官网在2025-05-13发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202111510075.0,技术领域涉及:G06F17/40;该发明授权基于残差卷积神经网络的LDCT图像超分辨增强方法及装置是由何赛灵;公大伟设计研发完成,并于2021-12-10向国家知识产权局提交的专利申请。

基于残差卷积神经网络的LDCT图像超分辨增强方法及装置在说明书摘要公布了:本发明公开了基于残差卷积神经网络的LDCT图像超分辨增强方法及装置。该方法首先设计了一种改进混合级联任务卷积神经网络(以U‑Net为例)的网络结构,接着按照该设计网络结构,提供大量LDCT低分辨率图像与真值高分辨率图像进行网络训练,网络训练过程由改进混合级联任务U‑Net进行特征提取、误差计算、误差反向传播构成,误差值进行反向传播。指定学习率大小为0.0001,优化器为ADAM,学习率采用阶段下降策略,不断减小超分辨率CT图像与真值高分辨率图像之间的损失。该方法能适应于医学领域一次性对胸部LDCT扫描实现三大疾病(肺结节、慢阻肺、冠心病)及脊柱的筛查、检测与分析,而不需要对空间分辨率要求更高的胸部某局部进行额外的高精度CT扫描。

本发明授权基于残差卷积神经网络的LDCT图像超分辨增强方法及装置在权利要求书中公布了:1.一种基于残差卷积神经网络的LDCT图像超分辨增强方法,其特征在于,包括以下步骤:步骤1)制作训练集与测试集;步骤2)LDCT初始图像预处理;步骤3)训练是否的判断,如果是则进入步骤4),如果否则进入步骤8);步骤4)改进混合级联任务U-Net进行特征提取;步骤5)误差计算;步骤6)误差反向传播;步骤7)误差是否满足要求判断,如果是则进入步骤8),如果否则返回到步骤4);步骤8)输出图像超分辨模型;步骤9)生成超分辨率CT图像;步骤10)结束;所述的步骤4)改进混合级联任务U-Net进行特征提取,构建空间上下文分支网络的步骤如下:步骤4-1-1)将原始特征图输入到卷积核大小为3×3,输入输出通道数为64,步长为2,填充为1的卷积层,经过3层这样的卷积层后,每层输出相对于输入特征图分辨率减少一半的特征图;4个特征图分别经过卷积核大小为1×1,输入输出通道数为64的卷积层后,低分辨率的特征图分别经过卷积核大小为2×2、4×4、8×8,输入输出通道数为64,步长为2、4、8的反卷积层进行上采样,输出与原始特征图分辨率大小相同的特征图;步骤4-1-2)将得到的4个分辨率大小相同的特征图进行元素级相加输出一个特征图,随后经过4个深度可分离卷积提取特征得到特征图;每个深度可分离卷积由卷积层大小为3×3,输入输出通道数为64,组数为64,填充为1的卷积层和卷积层大小为1×1,输入输出通道数为64的点卷积层构成;步骤4-1-3)将得到的特征图输入卷积核大小为1×1,输入输出通道数为64的卷积层后,得到空间上下文分支特征图;所述的步骤4)改进混合级联任务U-Net进行特征提取,构建傅里叶通道注意力残差模块的步骤如下:步骤4-2-1)原始特征图经过2个深度可分离卷积层与Swish激活层得到新的特征图;其中深度可分离卷积层由卷积层大小为3×3,输入输出通道数为64,组数为64,填充为1的卷积层和卷积层大小为1×1,输入输出通道数为64的点卷积层构成;步骤4-2-2)新的特征图输入到傅里叶注意力模块得到注意力特征,傅里叶注意力模块内部依次为快速傅里叶变换,下采样层,全局平均池化层,上采样层,深度可分离卷积层,Sigmoid层;其中下采样层包含卷积核大小为1×1,输入通道数为64,输出通道数为16的卷积层和Swish激活函数层,上采样层包含卷积核大小为1×1,输入通道数为16,输出通道数为64的卷积层和Swish激活函数层,得到的64个特征图经过Sigmoid层计算每个通道的注意力值,将注意力值与分别与输入的特征图的每个通道相乘得到注意力特征图;步骤4-2-3)将得到的注意力特征图作为残差,与原始特征图进行元素级相加得到注意力残差特征图;所述的步骤4)改进混合级联任务U-Net进行特征提取,构建基于傅里叶通道注意力残差模块的U-Net网络结构的步骤如下:步骤4-3-1)基于傅里叶通道注意力残差模块的U-Net网络结构包含2个下采样层与2个上采样层;原始特征图在下采样层由傅里叶通道注意力残差模块提取特征,然后经过卷积核大小为3×3,输入通道数为64,输出通道数为128,步长为2,填充为1的卷积层后,经过Swish激活函数层与深度可分离卷积层,得到下采样特征图,其中深度可分离卷积层由卷积层大小为3×3,输入输出通道数为128,组数为128,填充为1的卷积层和卷积层大小为1×1,输入输出通道数为128的点卷积层构成;步骤4-3-2)下采样特征图再进行下采样操作,由傅里叶通道注意力残差模块提取特征,然后经过卷积核大小为3×3,输入通道数为128,输出通道数为256,步长为2,填充为1的卷积层后,经过Swish激活函数层与深度可分离卷积层,得到新的下采样特征图;其中深度可分离卷积层由卷积层大小为3×3,输入输出通道数为256,组数为256,填充为1的卷积层和卷积层大小为1×1,输入输出通道数为256的点卷积层构成;步骤4-3-3)新的下采样特征图依次经过2个上采样层提高特征图分辨率;上采样由傅里叶通道注意力残差模块提取特征后,经过卷积核大小为3×3,输入通道数为256,输出通道数为1024的卷积层,然后经过PixelShuffle层将通道数转换为256,同时特征图的长宽值都变为原来的2倍;然后经过Swish激活函数层,再经过卷积核大小为3×3,输入通道数为256,输出通道数为128的卷积层后,与原始特征图第一次下采样层后得到的128个特征图进行拼接,得到256个通道的特征图;步骤4-3-4)128个通道的特征图由傅里叶通道注意力残差模块提取特征后,经过卷积核大小为3×3,输入通道数为256,输出通道数为1024的卷积层,然后经过PixelShuffle层将通道数转换为256,同时特征图的长宽值都变为原来的2倍;然后经过Swish激活函数层,再经过卷积核大小为3×3,输入通道数为256,输出通道数为64的卷积层后,与64个通道的原始特征图进行拼接,得到128个通道的特征图后;再经过卷积核大小为3×3,输入通道数为128,输出通道数为64的卷积层,输出64个通道的U-Net特征图;所述的步骤4)改进混合级联任务U-Net进行特征提取,构建基于U-Net的特征精炼模块的步骤如下:步骤4-4)基于U-Net的特征精炼模块内部依次为通道级拼接、卷积层和U-Net;其中通道级拼接将64个通道的U-Net特征图与64个通道的原始特征图进行拼接,得到128个通道的特征图;然后经过卷积核大小为3×3,输入通道数为128,输出通道数为64的卷积层,再经过基于傅里叶通道注意力残差模块的U-Net网络得到精炼特征图;所述的步骤4)改进混合级联任务U-Net进行特征提取,构建基于改进混合级联任务的网络结构步骤如下:步骤4-5)U-Net特征图依次输入3个特征精炼模块得到3个不同级别的精炼特征图,特征图由粗糙到精细;同时原始特征图分别输入到3个特征精炼模块进行通道级拼接;同时空间上下文特征图与3个不同级别的精炼特征图输入到像素分支网络中生成超分辨率CT图像,其中像素分支网络包含元素级相加,4个连续的深度可分离卷积层和重建层;像素分支网络是一个残差网络,输入为空间上下文特征图、精炼特征图和上一个像素分支网络的残差输出特诊图;输入经过元素级相加得到64个特征图,然后经过4个卷积层大小为3×3,输入输出通道数为64,组数为64,填充为1的卷积层和卷积层大小为1×1,输入输出通道数为64的点卷积层,得到带重建特征图;带重建特征图作为残差输入到下一个像素分支网络,同时经过卷积层大小为3×3,输入通道数为64,输出通道数1的卷积层后,经过反标准化得到超分辨率CT图像;3个像素分支输出3个不同精细程度的超分辨率CT图像;所述的步骤5)误差计算的步骤如下:步骤5)真值高分辨率图像经过双三次下采样4倍与双三次上采样4倍后与第一个超分辨率CT图像计算均方误差与结构相似性误差作为第一阶段误差,其中结构相似性误差乘以系数0.1;真值高分辨率图像经过双三次下采样2倍与双三次上采2倍后与第二个超分辨率CT图像计算均方误差与结构相似性误差作为第二阶段误差,其中结构相似性误差乘以系数0.1;真值高分辨率图像与第三个超分辨率CT图像计算均方误差与结构相似性误差作为第三阶段误差,其中结构相似性误差乘以系数0.1;前两个阶段的误差乘以0.3并与最后阶段的误差相加得到最终的误差值;所述的步骤6)误差反向传播的步骤如下:步骤6)误差值进行反向传播,指定学习率大小为0.0001,优化器为ADAM,学习率采用阶段下降策略,不断减小超分辨率CT图像与真值高分辨率图像之间的损失。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人浙江大学,其通讯地址为:310058 浙江省杭州市西湖区余杭塘路866号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。