恭喜安徽大学周芃获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜安徽大学申请的专利一种基于主动选择约束的深度图像聚类方法、系统、装置获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114332847B 。
龙图腾网通过国家知识产权局官网在2025-04-25发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210006799.X,技术领域涉及:G06V20/64;该发明授权一种基于主动选择约束的深度图像聚类方法、系统、装置是由周芃;孙必成;李学俊设计研发完成,并于2022-01-05向国家知识产权局提交的专利申请。
本一种基于主动选择约束的深度图像聚类方法、系统、装置在说明书摘要公布了:本发明属于图像聚类领域,具体涉及一种基于主动选择约束的深度图像聚类方法、系统、装置。包括如下步骤:S1:构建包含两个共享权重的子网络的孪生网络;S2:在孪生网络后增加一个聚类网络进而得到所需的深度图像聚类模型;S3:获取多个原始图像,构成所需的数据集;S4:随机选择数据集中样本图像,人工添加约束信息后依次输入到深度图像聚类模型中完成聚类处理;S5:根据数据集中所有样本的对应的聚类结果,主动选择各个类别中具有弱链接关系的样本图像构建成对约束,重新聚类;S6:设定迭代次数对网络模型进行迭代训练。本发明解决了现有半监督聚类方法的数据集中样本间的成对约束质量难以保证,进而导致聚类精度差等问题。
本发明授权一种基于主动选择约束的深度图像聚类方法、系统、装置在权利要求书中公布了:1.一种基于主动选择约束的深度图像聚类方法,其特征在于:包括如下步骤:S1:构建包含两个共享权重的子网络的孪生网络;所述孪生网络中的子网络用于学习输入的样本图像中的特征信息进而提取出样本图像的嵌入表示;对于两个子网络获取的特征信息,所述孪生网络采用欧式距离计算并输出二者的差异,同时采用对比损失函数对孪生网络的网络参数进行优化;S2:在所述孪生网络后端增加一个聚类网络进而得到所需的深度图像聚类模型;所述聚类网络根据所述孪生网络提取出的样本图像的嵌入表示预测出各个样本图像对应的类别和聚类中心;S3:获取多个原始图像,在二维的原始图像中增加颜色通道属性后得到三维的图像数据;以各个三维的图像数据作为样本,构成所需的数据集;S4:随机选择所述数据集中的任意两个图像作为样本图像,为两个样本图像人工添加约束信息,所述约束信息用于表征两个样本图像是否属于同一类;并将构建的具有成对约束信息的样本图像依次输入到所述深度图像聚类模型中,直至所述数据集中的所有样本图像均完成特征学习和聚类过程;所述聚类网络的聚类处理过程如下:S41:采用k均值算法确定数据集样本的聚类结果以及各个类别对应的聚类中心;S42:使用学生t分布计算每个样本图像和各个聚类中心之间的相似度,进而得出每个样本图像对应的分配置信度qij;其中,qij表示样本图像xi属于第j个类别的概率;S43:根据每个样本图像的分配置信度qij;采用下式计算出具有更加明显聚类趋势极化分配置信度Pij: 其中,n表示数据集中的样本图像的数量;c表示数据集聚类处理类别数;S44:采用KL散度作为损失函数,优化聚类过程中分配置信度qij和极化分配置信度Pij间的差异,对所述分配置信度qij进行更新;基于更新后的分配置信度得到数据集的聚类结果;S5:根据上步骤确定的数据集中所有样本的对应的聚类结果,主动选择各个类别中具有弱链接关系的样本图像进行重新聚类,重新聚类过程如下:S51:获取更新后的表征各个样本图像的聚类特征的分配置信度qij,并确定聚类结果中的类别数和每个类别中的样本数;S52:以所述分配置信度qij的值作为各个样本图像与所述聚类中心的中心距离,对每个类别中的样本图像按照与聚类中心距离由近及远的顺序进行排序,得到一个图像序列;S53:设定一个取样比例,按照取样比例计算出每个类别的取样数N,分别抽取所述图像序列中的首项以及靠后的N-1项;S54:以各个类别中抽取出的首项为一个样本图像,抽取出的各个后项为另一个样本图像,构建新的成对约束样本图像,并在添加约束信息后输入到所述深度图像聚类模型中进行重新聚类;S6:设定一个迭代次数;以每完成步骤S54中的一轮重新聚类作为迭代完成的标志,循环执行步骤S4-S5的过程,直到达到预设的迭代次数;进而完成对数据集中所有样本图像的聚类过程。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人安徽大学,其通讯地址为:230022 安徽省合肥市蜀山区肥西路3号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。