买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
申请/专利权人:张家口市际源路桥工程有限公司
摘要:本申请公开了基于深度学习和BIM的路桥施工监测方法及系统,属于路桥施工监测系统及其应用技术领域。该方法包括:步骤S1,将施工区域划分为多个子区域,并对各子区域进行施工状态数据的实时采集;步骤S2,根据划分的子区域对采集的数据进行分组和预处理,确保数据质量和一致性;步骤S3,基于Transformer架构,结合强化学习算法构建智能监测模型,以根据采集的数据预测路桥施工的风险程度,并在实时监测过程中进行动态学习和自我调整;步骤S4,引入在线学习策略,使智能监测模型实时吸收新数据,实时更新模型参数,以适应施工环境的动态变化;步骤S5,将监测结果实时同步至BIM模型,更新各子区域的施工状态,并将实时数据和预测风险在BIM模型对应区域显示出来。
主权项:1.基于深度学习和BIM的路桥施工监测方法,其特征在于,包括以下步骤:步骤S1,将施工区域划分为多个子区域,并对各子区域进行施工状态数据的实时采集;步骤S2,根据划分的子区域对采集的数据进行分组和预处理,确保数据质量和一致性;步骤S3,基于Transformer架构,结合强化学习算法构建智能监测模型,以根据采集的数据预测路桥施工的风险程度,并在实时监测过程中进行动态学习和自我调整;步骤S4,引入在线学习策略,使智能监测模型实时吸收新数据,实时更新模型参数,以适应施工环境的动态变化;步骤S5,将监测结果实时同步至BIM模型,更新各子区域的施工状态,并将实时数据和预测风险在BIM模型对应区域显示出来;智能监测模型的训练和应用过程包括以下步骤:利用多头注意力机制捕捉序列数据中的长距离依赖关系,并将智能监测模型训练转化为序列决策问题;设置强化学习的目标函数为最大化期望累计奖励,并基于监测准确性和及时性因素设计奖励函数;在初始阶段,通过传统的监督学习方式从历史施工状态数据中学习特征和规律;随后引入强化学习框架,采用Q-learning算法,以在每个时间步长根据当前观测到的状态决定下一步动作,并根据动作后果获得相应的奖励或惩罚,从而通过持续交互逐渐优化监测策略,学习在不同施工状态下动态调整风险判断阈值以获得最大的长期奖励;在实际施工过程中,实时监测并持续收集最新数据并输入到训练好的智能监测模型中,根据强化学习策略实时更新监测策略和风险阈值,以适应动态变化的施工环境和工况;当监测到潜在风险或异常情况时,则立即反馈给施工管理者,实现智能预警和决策支持,从而提高施工安全性和效率;强化学习框架包括智能体、状态、动作和奖励函数,其中,智能体通过观察环境并执行一系列动作来优化施工状态;状态表示为智能体所观察到的环境信息;动作定义为智能体在特定状态下作出的决策,包括监测参数调整和预警级别变更,旨在影响施工过程,进而影响下一时刻的施工状态和最终的整体施工效果;奖励函数的设计旨在量化智能体所采取行动的效果,鼓励其朝着期望的目标前进,在施工监测场景下,奖励函数定义为:如果成功预测了潜在风险或异常情况,并且实际情况证实了预测正确,给予正奖励Rp;如果错误地发出警报,导致不必要的停工或资源浪费,给予负奖励Rn;如果未能在真正发生风险的情况下及时发出警报,也给予负奖励Rm;奖励函数定义为:R=wacc*accuracy+wtime*timefactor,其中,accuracy代表预警准确性的得分,accuracy=Σ[βp*Ipred=Trueandactual=True-βn*Ipred=Trueandactual=False-βm*Ipred=Falseandactual=True],其中,I是指示函数,当括号内的条件成立时返回1,否则返回0;βp,βn,βm分别是对应奖励项的权重;timefactor是一个随预警时间提前量增加而增大的函数,用于鼓励更早的预警;Q-learning算法通过迭代更新Q值来优化智能体的决策策略,其核心是贝尔曼最优方程,公式为:Qst,at=Qst,at+α*rt+γ*maxaQst+1,a-Qst,at,其中,st表示当前状态,at表示采取的动作,rt是即时奖励,γ是折扣因子,α是学习率,maxaQst+1,a是下个状态的最大Q值。
全文数据:
权利要求:
百度查询: 张家口市际源路桥工程有限公司 基于深度学习和BIM的路桥施工监测方法及系统
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。