买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
申请/专利权人:武汉理工大学
摘要:本发明提出了一种基于奖励函数改进的深度强化学习路径规划方法及系统,涉及路径规划技术领域,所述方法包括:构建深度强化学习训练环境模型,基于深度确定性策略梯度算法和策略学习算法对所述深度强化学习训练环境模型进行网络初始化;采集设置于深度强化学习训练环境模型中自主移动机器人的可行状态信息和位置状态信息,所述位置状态信息包括所述自主移动机器人的初始位置与目标点的初始位置;基于所述可行状态信息和所述位置状态信息,构建与所述深度确定性策略梯度算法和所述策略学习算法对应的状态空间模型,并使所述状态空间模型输出状态空间函数和动作空间函数;将所述状态空间函数和所述动作空间函数输入所述深度强化学习训练环境模型,获取自主移动机器人所有可选状态动作对应的奖励函数;将所述状态空间函数、所述动作空间函数以及所述奖励函数存入经验池,并从所述经验池中选取样本,以更新深度确定性策略梯度算法和策略学习算法;重复上述步骤,直到所述自主移动机器人移动至所述目标点,以完成路径规划。本发明有助于提升路径规划的收敛速度和数据探索效率。
主权项:1.一种基于奖励函数改进的深度强化学习路径规划方法,其特征在于,所述方法包括:S1,构建深度强化学习训练环境模型,基于深度确定性策略梯度算法和策略学习算法对所述深度强化学习训练环境模型进行网络初始化;S2,采集设置于深度强化学习训练环境模型中自主移动机器人的可行状态信息和位置状态信息,所述位置状态信息包括所述自主移动机器人的初始位置与目标点的初始位置;S3,基于所述可行状态信息和所述位置状态信息,构建与所述深度确定性策略梯度算法和所述策略学习算法对应的状态空间模型,并使所述状态空间模型输出状态空间函数和动作空间函数;S4,将所述状态空间函数和所述动作空间函数输入所述深度强化学习训练环境模型,获取自主移动机器人所有可选状态动作对应的奖励函数;S5,将所述状态空间函数、所述动作空间函数以及所述奖励函数存入经验池,并从所述经验池中选取样本,以更新深度确定性策略梯度算法和策略学习算法;S6,重复步骤S3-S5,直到所述自主移动机器人移动至所述目标点,以完成路径规划。
全文数据:
权利要求:
百度查询: 武汉理工大学 基于奖励函数改进的深度强化学习路径规划方法及系统
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。