首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明公布】一种基于DQN深度强化学习算法的汽车路障规避方法_长春工业大学_202410299911.2 

申请/专利权人:长春工业大学

申请日:2024-03-15

公开(公告)日:2024-06-14

公开(公告)号:CN118193978A

主分类号:G06F18/20

分类号:G06F18/20;G06F18/214;G06N3/0464

优先权:

专利状态码:在审-公开

法律状态:2024.06.14#公开

摘要:本发明涉及汽车驾驶技术领域,具体公开了一种基于DQN深度强化学习算法的汽车路障规避方法,包括:环境建模:将汽车路障规避问题创建为一个马尔可夫决策过程MPD,定义状态、动作和奖励;构建深度Q网络:使用深度神经网络作为Q函数的近似器,输入状态作为网络的输入,输出每个动作的Q值;本发明将汽车路障规避问题表述为在马尔可夫决策过程中寻找最优策略的问题,利用深度强化学习在汽车遇到障碍物时,为汽车提供合适的路线,减少汽车碰撞事故的发生;引入双Q学习结合采用的梯度下降法和ε‑贪婪策略对训练的深度Q网络进行评估与优化,提高Q网络的学习效率和稳定性,使得深度Q网络在汽车路障规避问题时,得出的结果更加准确。

主权项:1.一种基于DQN深度强化学习算法的汽车路障规避方法,其特征在于,包括:环境建模、构建深度Q网络、经验回放、Q学习更新、训练和优化、测试和评估;首先,将汽车路障规避问题创建为一个马尔可夫决策过程MPD,定义状态、动作和奖励;其次,使用深度神经网络作为Q函数的近似器,输入状态作为网络的输入,输出每个动作的Q值;再次,使用经验回放机制来训练深度Q网络,将每个状态转换为经验样本,并将其存储在经验回放缓冲区中;然后,使用Q学习算法更新深度Q网络的参数,根据当前状态和动作计算目标Q值;之后,通过多次迭代训练深度Q网络,使用随机梯度下降算法来更新网络参数;最后,使用训练好的深度Q网络进行测试,并评估其在规避路障问题上的性能。该方法包括以下步骤:步骤1、环境建模:建立汽车路障规避问题的马尔可夫过程:定义状态、动作和奖励:状态是车辆在与环境交互时所处特定情境下的状态,状态空间是所有可能状态的集合;动作是车辆在特定状态下可以选择的行为或决策,动作空间是所有可能动作的集合;奖励是在车辆执行动作后从环境中获得的数值反馈,奖励信号用于指导车辆学习,在马尔可夫过程中目标是最大化长期累积奖励;步骤2、构建深度Q网络、经验回放:使用深度神经网络作为Q函数的近似器,输入状态作为网络的输入,输出每个动作的Q值;经验回放将深度神经网络经历过的经验包括状态、动作、奖励、下一个状态存储在经验回放缓冲区中,并从中随机抽样一批经验用于后续深度神经网络使用;步骤3、Q学习更新、训练和优化:使用Q学习算法更新深度Q网络的参数:步骤3.1、选择动作:根据当前的深度Q网络和ε-greedy策略选择一个动作a;步骤3.2、执行动作并观察环境:车辆执行动作a,观察环境反馈的奖励r和新状态s;步骤3.3、更新Q值:根据Q学习算法中的Q值更新公式,计算车辆Q值;步骤3.4、重复:重复步骤3.1至步骤3.3,直到达到终止状态或者达到设定的迭代次数;步骤3.5、收敛:当深度Q网络收敛到最优Q值函数时,算法停止;步骤3.6、更新:使用随机梯度下降算法更新网络参数;步骤4、测试和评估:将实际车辆行驶数据作为输入使用训练好的深度Q网络进行测试,通过可视化车辆在环境中的行为、学习曲线、Q值函数来评估深度Q网络的性能,并发现潜在的改进空间。

全文数据:

权利要求:

百度查询: 长春工业大学 一种基于DQN深度强化学习算法的汽车路障规避方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

相关技术
相关技术
相关技术
相关技术