Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 恭喜武汉华风电子工程有限公司李建强获国家专利权

恭喜武汉华风电子工程有限公司李建强获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网恭喜武汉华风电子工程有限公司申请的专利基于深度多流神经网络的图像分类方法及装置获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN113723426B

龙图腾网通过国家知识产权局官网在2025-03-07发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202110857669.2,技术领域涉及:G06V10/44;该发明授权基于深度多流神经网络的图像分类方法及装置是由李建强;徐曦;赵琳娜设计研发完成,并于2021-07-28向国家知识产权局提交的专利申请。

基于深度多流神经网络的图像分类方法及装置在说明书摘要公布了:本发明提供一种基于深度多流神经网络的图像分类方法及装置,方法包括:获取特定领域的待分类图像以及待分类图像对应的文本数据;提取待分类图像的图像特征;提取待分类图像对应的文本数据的语义特征;将图像特征和语义特征,输入至少两个网络分支,获得各网络分支分别对应的分类阈值;基于分类阈值,确定待分类图像的标签。本发明用以解决现有技术中针对特定领域,仅能检测单一标签的图像的缺陷。

本发明授权基于深度多流神经网络的图像分类方法及装置在权利要求书中公布了:1.一种基于深度多流神经网络的图像分类方法,其特征在于,所述深度多流神经网络包括至少两个网络分支,每个所述网络分支对应一种标签,所述方法包括:获取特定领域的待分类图像以及所述待分类图像对应的文本数据;其中,特定领域的待分类图像为非自然图像,待分类图像与文本数据具有一定的相关性,文本数据至少能够描述待分类图像的一个特征;提取所述待分类图像的图像特征;提取所述待分类图像对应的文本数据的语义特征;将所述图像特征和所述语义特征,输入所述至少两个网络分支,获得各所述网络分支分别对应的分类阈值;基于所述分类阈值,确定所述待分类图像的标签;所述待分类图像的标签生成过程如下:得到全连接层输出的分类阈值后,确定分类阈值大于预设阈值时对应的网络分支的标签,将确定的标签作为待分类图像的标签;预先构建深度多流神经网络,所述深度多流神经网络包括三个网络分支:其中,三个网络分支分别为:第一网络分支、第二网络分支和第三网络分支,第一网络分支对应第一标签、第二网络分支对应第二标签和第三网络分支对应第三标签;每个分支网络代表着每个特定分类任务的特征学习过程;其中,深度多流神经网络的一个关键操作是通过并行CNN更新损失函数来完成多分类结果的逻辑计算;Softmax损失函数常用于多任务分类,是Softmax函数和交叉熵损失函数的结合,计算见公式1: 其中,i指的分支网络的编号;xi指的是输入向量;yi指的是第i个编号对应的实际值;当yi等于1时,代入Softmax函数后见公式2: 对于这个损失函数,编码格式是One-Hot码,即每个目标向量中只允许一位为1,其余位必须为0;实验中的样本有多个标签,需要使用多重编码,多重编码中目标向量的每一位代表一种属性;当样本包含多个属性时,向量中对应属性的位标记为1,否则为0;为了适应多种编码模式,通过网络利用Sigmoid交叉熵损失函数作为优化损失函数,见公式3: 其中,i指的分支网络的编号;xi指的是输入向量;yi指的是第i个编号对应的实际值;其中f·表示Sigmoid函数,见公式4: 其中,i指的分支网络的编号;xi指的是输入向量;然后将Sigmoid函数代入公式3,可以得到Lx,见公式5: 其中,i指的分支网络的编号;xi指的是输入向量;yi指的是第i个编号对应的实际值;Sigmoid交叉熵损失函数可以计算每个目标的二元交叉熵损失,使得每个标签的概率值接近其实际值0或1;将每个标签的阈值设置为0.5,如果超过0.5,则选择当前标签作为分类。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人武汉华风电子工程有限公司,其通讯地址为:430000 湖北省武汉市东湖新技术开发区汤逊湖北路38号国测科技总部空间3栋1层01室;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。