申请/专利权人:浙江大学
申请日:2024-03-15
公开(公告)日:2024-06-07
公开(公告)号:CN118152792A
主分类号:G06F18/2135
分类号:G06F18/2135;G06F18/2136;G06F18/214;G06N3/0442;G06N3/08
优先权:
专利状态码:在审-实质审查的生效
法律状态:2024.06.25#实质审查的生效;2024.06.07#公开
摘要:本发明公开了一种基于GFGRU的浅海声速剖面匹配场反演方法。该方法包括:基于K奇异值分解字典学习算法产生一组用以表征待反演位置声速剖面的字典基函数,精准度更高且能有效地降低搜索时的参数数量;通过训练GFGRU网络来完成寻找表征目标声速剖面的基函数的多标签分类任务,在训练中使用多标签损失函数使网络收敛,针对网络训练数据不足的问题,使用人工合成数据集对GFGRU网络进行预训练,并可有效提升GFGRU网络分类的准确性和鲁棒性;使用遗传算法对GFGRU分类输出的表征目标声速剖面基函数的系数进行搜索,损失函数采用匹配场方法计算;迭代搜索直至损失函数低于设置阈值或迭代步数达到设置的最大值,最后使用搜索输出的最优个体计算获得待反演区域的声速剖面。
主权项:1.一种基于GFGRU的浅海声速剖面匹配场反演方法,其特征在于,具体步骤如下:S1:根据已有的待反演区域的实际声速剖面数据,使用K-SVD算法生成待反演区域声速剖面的字典并计算构成各个声速剖面的基函数;S2:根据所述待反演区域声速剖面的基函数分布情况生成合成声速剖面数据集,基于合成声速剖面数据集和步骤S1中所述的待反演区域的实际声速剖面数据,分别利用Kraken模型计算声场,并对声场进行数据预处理,得到合成数据集和真实数据集;并对所述合成数据集和真实数据集中的各个声速剖面打上标签;S3:使用所述合成数据集对GFGRU网络进行预训练,得到预训练模型;然后使用所述真实数据集对所述预训练模型进行训练,以完成多标签分类任务;在训练过程中使用多标签损失函数来帮助收敛;S4:输入待反演区域的实测声场数据到训练完成的GFGRU网络中,获取待反演区域的声速剖面的基函数;S5:利用遗传算法对待反演区域声速剖面的基函数系数进行搜索,使用匹配场方法计算损失函数,迭代搜索直至损失函数值低于设置的阈值或者迭代步数达到设置的最大步数,使用最优个体计算获得待反演区域的声速剖面。
全文数据:
权利要求:
百度查询: 浙江大学 基于门反馈门控循环单元的浅海声速剖面匹配场反演方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。