首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

一种仿哥布林鲨的海参捕捞机器人及其位姿控制方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:山东科技大学

摘要:本发明公开了一种仿哥布林鲨的海参捕捞机器人及其位姿控制方法,涉及水下捕捞装备技术领域,包括机架、浮体、推进器、运动仓、仿生鱼嘴、控制仓、收集箱、抽吸装置及探测控制单元,仿生鱼嘴纵向滑动设在运动仓内,运动仓后部设有带动仿生鱼嘴移动的伸缩驱动装置。仿生鱼嘴包括上颚壳体、下颚壳体及弹性内衬体,弹性内衬体设在上、下颚壳体内侧,鱼嘴开合装置驱动仿生鱼嘴开启和闭合。抽吸装置与弹性内衬体后端相连相通,控制仓内设有横向调平装置和纵向调平装置。探测控制单元包括透明罩壳、深度相机、图像识别模块、九轴姿态传感器及控制器。本发明通过DDPG控制算法完成位姿控制训练,探测和识别目标海参,调节重心位置准确吸入海参,自动化、智能化程度高,实现精准捕捞和提高捕捞效率。

主权项:1.一种仿哥布林鲨的海参捕捞机器人,其特征在于,包括机架、浮体、推进器、运动仓、仿生鱼嘴、控制仓、收集箱、抽吸装置及探测控制单元,所述机架为具有开放内腔的钢架结构,浮体设置在机架的顶部,推进器有两组,对称设置在机架的左右两侧;收集箱设于机架的前部下侧,运动仓为前侧开口的方形箱体,设于收集箱和浮体之间,控制仓相邻布置在收集箱后侧;仿生鱼嘴位于运动仓的内部前侧且与运动仓的开口正对,通过导向支架与运动仓纵向滑动配合,运动仓的后部设有伸缩驱动装置,伸缩驱动装置带动导向支架和仿生鱼嘴前后移动;仿生鱼嘴包括上颚壳体、下颚壳体及弹性内衬体,上、下颚壳体一上一下相对布置,弹性内衬体设在上、下颚壳体的内侧,为前端带有条形口的楔形囊状结构;上颚壳体和下颚壳体分别与导向支架转动相连,导向支架上设有鱼嘴开合装置,鱼嘴开合装置的执行端与上、下颚壳体的后端相连,驱动上颚壳体和下颚壳体同步相对运动,使仿生鱼嘴开启和闭合;抽吸装置设在控制仓前部,通过位于收集箱内的三通管与弹性内衬体的后端相连相通,收集箱通过排水机构与外部相通,控制仓的后部设有横向调平装置和纵向调平装置,纵向和横向调平装置一高一低布置;探测控制单元包括透明罩壳、深度相机、图像识别模块、九轴姿态传感器及控制器,透明罩壳设在浮体前侧,深度相机及图像识别模块封装在透明罩壳内,九轴姿态传感器和图像识别模块分别与控制器通讯相连;纵向调平装置和横向调平装置均包括配重块和平行布置的两个导轨,配重块滑动设置在两个导轨顶部,配重块与设在两个第一导轨之间的带传动机构相连,带传动机构驱动配重块沿导轨移动;横向调平装置的两个导轨一前一后横向布置,纵向调平装置的两个导轨一左一右纵向布置,带传动机构包括同步带和两个同步带轮,两个同步带轮通过同步带相连,同步带与配重块底部固定相连,其中一个同步带轮配置有第二伺服电机,第二伺服电机的信号端与控制器通讯相连;利用深度确定性策略梯度算法对海参捕捞机器人进行姿态控制训练;姿态控制方法包括如下步骤:步骤一、构造神经网络:初始化当前Actor神经网络和当前Critic神经网络,把当前Actor神经网络和当前Critic神经网络复制到目标Actor神经网络和目标Critic神经网络中;初始化当前Critic神经网络与目标Critic神经网络的参数ω与,初始化当前Actor神经网络与目标Actor神经网络的参数θ与;步骤二、生成样本:当前Actor神经网络与海参捕捞机器人的位置坐标和姿态进行交互,将当前环境状态St信息输入到当前Actor网络,当前环境状态St包括俯仰角、横滚角和偏航角,并根据行为策略选择一个策略at,策略at包括横向调平装置配重块的位移g1和纵向调平装置配重块的位移g2;海参捕捞机器人执行策略at,获得奖励rt和下一时刻的环境状态St+1;用四元组St,at,rt,St+1表示在当前环境状态St时,采取策略at,得到的奖励rt和下一时刻的环境状态St+1;将经验数据St,at,rt,St+1存入经验缓冲池;步骤三、更新当前Critic神经网络:随机选取经验缓冲池中数据St,at,rt,St+1进行训练,把St和at输入到当前Critic神经网络中,得到当前的估计状态值函数QtSt,at;把St+1输入到目标Actor神经网络中,得到策略at’;把St+1和at’输入到目标Critic神经网络中,得到状态值函数QtSt+1,at’,则目标状态值函数Qt’St+1,at’=rt+γQtSt+1,at’,其中,γ为加权系数;建立损失函数L=QtSt,at-Qt’St+1,at’2模型,以最小化函数L为基准,更新当前Critic神经网络的网络参数ω;步骤四、更新当前Actor神经网络:利用梯度策略函数基于准则更新当前Actor神经网络的网络参数θ,其中,表示利用替换θ的值,实现对θ的更新;其中,为关于QtSt,at梯度策略函数;anew为利用当前Actor神经网络计算出在环境状态St作用下的策略值;为策略值anew对网络参数θ的梯度,为Qtst,at对策略值anew的梯度;0≤α≤1;步骤五、更新目标神经网络:根据分别对目标Critic神经网络的网络参数为和目标Actor神经网络的网络参数进行更新,0≤τ≤1;其中,←τω+1-τ表示利用τω+1-τ替换的值,实现对的更新;←τθ+1-τ表示利用τθ+1-τ替换的值,实现对的更新;判断是否达到最大训练次数N,若达到最大训练次数,则训练完成,获得水下机器人姿态控制策略;否则,执行步骤二。

全文数据:

权利要求:

百度查询: 山东科技大学 一种仿哥布林鲨的海参捕捞机器人及其位姿控制方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。