首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明公布】基于对抗学习和引导机制的视盘视杯分割方法_四川大学_202311351034.0 

申请/专利权人:四川大学

申请日:2023-10-18

公开(公告)日:2024-01-05

公开(公告)号:CN117351031A

主分类号:G06T7/11

分类号:G06T7/11;G06T7/00;G06N3/0455;G06N3/0464;G06N3/0475;G06N3/094;G06V10/25;G06V10/80

优先权:

专利状态码:在审-实质审查的生效

法律状态:2024.01.23#实质审查的生效;2024.01.05#公开

摘要:本发明提出了一种基于对抗学习和引导机制的视盘视杯分割方法,旨在提高视盘和视杯的分割性能。所提出的方法主要由分割网络和鉴别器构成,在分割网络中构建引导融合模块,将绿色通道的特征信息与彩色眼底图像的特征信息进行融合,使网络充分学习眼底图像不同通道之间的信息差异,从而引导网络聚焦于关键区域。此外,所提出的方法中还构建了鉴别器,通过对抗性学习的方式促进分割网络生成更真实的分割结果。所提出的方法有效提高了分割精度,并且在数据分布呈现明显不同的眼底图像上也能实现视盘和视杯的准确分割,有不错的鲁棒性。

主权项:1.基于对抗学习和引导机制的视盘视杯分割方法,其特征在于,它包括以下步骤:S1、获取原始眼底图像数据集,并对获取的眼底图像进行预处理,预处理过程具体包括以下步骤:对获取眼底图像数据集和对应的视盘视杯标签裁剪为统一的大小,然后利用U-Net模型训练一个简单的视盘分割,得到视盘分割结果,根据视盘分割结果进行连通域检测,找到视盘的中心,裁剪视盘中心周围的区域,得到感兴趣区域;之后,将裁剪后的图像进行极坐标转换,从笛卡尔坐标系转换到极坐标系;最后,对眼底图像和对应的视盘视杯标签进行归一化处理,视盘视杯标签转换成双通道图像,第一个通道对应视盘标签,第二个通道对应视杯标签,若为视盘视杯区域则对应像素点为1,否则为0;S2、基于U-Net模型,构建基于引导机制的视盘和视杯分割网络;S3、采用S1得到的处理后的眼底图像和图像的绿色通道对步骤S2构建的视盘视杯分割网络进行训练,得到初步的预测分割,模型训练过程具体包括如下步骤:将预处理后的眼底图像和眼底图像的绿色通道分别输入到步骤S2构建的分割网络中,输出视盘和视杯的预测分割;然后,采用基于Dice系数的多标签损失函数来计算预测结果和真实标签的损失,计算公式为:,式中N=H×W代表像素数,K代表类别数,由于针对视盘和视杯分割两个任务,因此K=2,和分别代表预测分割的像素点和真实标签的像素点,代表每一类别的权重;S4、基于WassersteinGAN模型,采用S2构建的分割网络做生成器,再构建对抗学习任务中的鉴别器;S5、采用预处理后的眼底图像和S3得到的预测分割X,Y’,以及预处理后的眼底图像和真实标签X,Y一起输入到S4构建的鉴别器中,辨别输入分割图像的真伪;S6、采用对抗学习机制,增强鉴别器辨别真伪的能力,促进分割网络生成更加逼真的分割结果,从而优化分割网络;S7、对S8得到的优化后的分割网络进行验证,得到最终的分割网络;S8、采用S9得到的分割模型,进行实际的视盘视杯分割,再将得到的分割结果从极坐标系转换回笛卡尔坐标系,得到最终分割结果。

全文数据:

权利要求:

百度查询: 四川大学 基于对抗学习和引导机制的视盘视杯分割方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。