买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
申请/专利权人:大连理工大学
摘要:本发明属于计算机视觉领域,提供了一种基于鲁棒软标签的深度适应网络的构建方法。本方法通过最大化预测概率矩阵的核范数,在滤除噪声概率的同时保留重要的概率,从而产生一种新的标签形式,然后将新的标签形式以概率加权的方式重新表述标签诱导损失,如CMMD、类内距离和类间距离。本发明证明了经过核范数约束的鲁棒软标签相比于传统的硬标签和软标签拥有更可靠的表征能力,以概率加权的方式重新表述标签诱导损失也被证明是可解释性和合理性更强的损失函数建模,从而解决了传统硬标签和软标签在建模标签相关损失时偏差过大的问题。
主权项:1.一种基于鲁棒软标签的深度适应网络的构建方法,其特征在于,步骤如下:1获取输入数据的预测概率矩阵:首先加载经过预训练的ResNet的网络参数,并将最后一个平均池化层之后的设置替换成一个具有256个单元的瓶颈层fcb,将改动后的网络作为特征提取网络;然后将批量数据输入到特征提取网络,并将获得的特征输入softmax函数,获得所需的预测概率矩阵: 其中,Xs为源域数据,Xt为目标域数据,G为特征提取网络,F为softmax函数,为所需的源域数据的预测概率矩阵,为所需的目标域数据的预测概率矩阵;2最小化源域数据的交叉熵损失:通过最小化源域数据预测概率和真实标签的交叉熵损失,特征提取网络获得对源域数据的特征表示能力; 其中,CE表示交叉熵函数,为步骤1中输出的源域数据的预测标签,Ys为源域数据的真实标签;3最大化目标域预测概率矩阵的核范数矩阵的核范数是通过对矩阵的奇异值加和求得;首先对目标域概率矩阵进行奇异值分解: 其中,∑是一个B×C的矩阵,B为批量数据的数量,C为类别数,∑的主对角线上的每个元素都称为奇异值,其余元素都为零;然后通过对目标域概率矩阵的奇异值求和得到预测概率矩阵的核范数: 其中,∑ii表示Σ矩阵的主对角线元素,minB,C表示B和C的最小值;4将新的标签形式以概率加权的方式重新表述标签诱导损失:当获得了新的标签形式,将类MMD的分布距离损失以概率加权的方式重新表述如下: 其中,表示希尔伯特-施密特范数,表示第i个源域样本,表示第j个目标域样本,φ表示希尔伯特空间的特征映射,ns表示源域样本的数量,nt表示目标域样本的数量,L3损失通过计算源域和目标域之间每个类的均值差,以最小化两个域之间的条件分布偏移;表示源域第i个样本对第C类均值的贡献,表示源域第i个样本在第C类的真实标签,表示对所有属于第C类的样本在第C类的真实标签求和;表示目标域第i个样本对第C类均值的贡献,表示源域第i个样本在第C类的鲁棒软标签,表示对所有属于第C类的样本在第C类的鲁棒软标签求和;同样,用概率的方式重新表述源域的类内和类间距离,如下所示: 其中,第一项是类内距离,第二项是类间距离,||·||2表示2-范数,b1和b2是两个给定的阈值,分别为0和100,是由源域所有样本由真实标签加权求得的各类中心,是由源域所有属于第i类样本求得类中心,同理;类内距离的目标是使类中心点与属于该类的每个样本之间的距离最小,类间距离的目标是使两个不同类中心点之间的距离最大,从而提高了特征识别能力;同样,我们给出目标域的两个距离如下所示: 是由目标域所有样本计算的各类中心,其权重是鲁棒软标签中该样本属于这类的概率,是由源域所有属于第i类样本求得类中心,同理。
全文数据:
权利要求:
百度查询: 大连理工大学 一种基于鲁棒软标签的深度适应网络的构建方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。