Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 大连理工大学林相波获国家专利权

大连理工大学林相波获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉大连理工大学申请的专利一种基于单轨迹示教的五指机械手抓取与操作系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN117901147B

龙图腾网通过国家知识产权局官网在2025-03-18发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202410262794.2,技术领域涉及:B25J13/00;该发明授权一种基于单轨迹示教的五指机械手抓取与操作系统是由林相波;李建文;白文斌设计研发完成,并于2024-03-07向国家知识产权局提交的专利申请。

一种基于单轨迹示教的五指机械手抓取与操作系统在说明书摘要公布了:本发明提供一种基于单轨迹示教的五指机械手抓取与操作系统,其数据集获取单元用于获取数据集;遥操作单元用于将人手动作映射到仿真中,控制灵巧手运动,在与仿真中的物体进行交互后,得到相应的专家示教数据,对数据中使用的物体进行手物交互关键点与功能区标注,标注机械手的抓取手型,并将示教物体的功能区通过点云配准方法迁移到同类别物体上;基础学习单元用于对专家示教数据进行基础学习阶段快速训练,得到基础策略;扩展学习单元用于引进扩展策略,并与基础策略在功能区迁移完成的情况下进行联合训练,得到可以应用的灵巧手策略,完成新物体的抓取和操作。指标评估单元用于通过抓取成功率和学习效率来评估系统的抓取和操作指标。

本发明授权一种基于单轨迹示教的五指机械手抓取与操作系统在权利要求书中公布了:1.一种基于单轨迹示教的五指机械手抓取与操作系统,其特征在于,包括:数据集获取单元、遥操作单元、基础学习单元、扩展学习单元以及指标评估单元,其中:所述数据集获取单元,用于获取数据集;所述遥操作单元,用于将人手动作映射到仿真中,控制仿真中的灵巧手进行运动,达到遥操控的效果,在与仿真中的物体进行交互后,得到相应的专家示教数据,同时对数据中使用的物体进行手物交互关键点与功能区标注,标注机械手的抓取手型,并将示教物体的功能区通过点云配准的方法迁移到其他同类别物体上;所述基础学习单元,用于对所述遥操作单元得到的专家示教数据进行基础学习阶段快速训练,得到一个基础策略;所述基础学习单元使用模仿学习与强化学习结合的方法,仅使用一条示教数据学习专家行为,其中:得到的一个基础策略的状态空间包括物体信息{Paffordance}、机器人本体感知信息{Ppalm、Jangles}、灵巧手与物体接触信息{Ptips2tips};在类级别抓取任务中物体信息使用物体接触点和手指尖到物体标注点距离来表示,引导策略控制灵巧手接触正确的区域;策略模型输出的动作空间是三十维的电机控制命令,控制关节运动;所述基础学习单元对所述遥操作单元得到的专家示教数据进行基础学习阶段快速训练,具体包括:引入梯度增强项作为学习目标: 其中,第一项是标准NPG算法梯度项,第二项是专家数据增强项;设计强化学习的奖励函数,如下:Rbasic=rapproach+rtips2tips+rcontact+rpenalty+rlift其中,rapproach表示靠近物体奖励函数,rapproach=-||Ppalm-Pobj||1;rtips2tips表示抓取物体奖励函数,rcontact表示指尖与物体标注点接触奖励函数,rpenalty表示速度惩罚奖励函数,rpenalty=-λ3Vpalm;rlift表示抓起足够长的时间奖励函数,rlift=λ4Hobj;所述扩展学习单元,用于在得到的基础策略的基础上,引进更具泛化能力的扩展策略与基础策略在功能区迁移完成的情况下进行联合训练,得到可以应用的灵巧手策略,完成新物体的抓取和操作;所述扩展学习单元用于实现物体被抓取部位的迁移和联合强化学习训练,其中:物体被抓取部位的迁移:采用柔性配准网络CPDNET将示教物体的点云与目标物体的点云柔性对齐,实现示教物体抓取部位的标注迁移到目标物体相应部位;联合强化学习训练:引入扩展策略,将扩展策略与基础策略联合,基于强化学习的策略优化得到扩展策略;基础策略在训练前期提供高效率训练与高回报的探索,使用经验迁移与策略提炼将经验迁移到扩展策略中并进行增强,训练时,扩展策略与基础策略的状态空间不同,状态空间表示为物体信息{Paffordance}、机器人本体感知信息{Ppalm、Jangles};两者均在一个更加符合现实的环境中进行训练,环境初始化时物体随机放置在某一位置处;为了让学习到的扩展策略更加具有泛化性,训练时采用稀疏奖励函数,表示为:Rextension=rapproach+rlift在联合训练框架中,基础策略仅使用自己探索得到的数据进行训练,扩展策略使用状态空间蒸馏后的基础策略数据和自己探索产生的数据进行训练,并在训练后期逐渐减少使用基础策略探索得到的数据;使用两个梯度项分别对基础策略和扩展策略进行训练: 其中,第一项是使用自我探索数据的NPG强化学习梯度项,第二项是基础策略探索数据提供的增强梯度项,λ5、λ6是超参数,k是迭代次数,随着k增大第二项梯度逐渐消失;所述指标评估单元,用于通过计算抓取成功率和学习效率来评估系统的抓取和操作指标。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人大连理工大学,其通讯地址为:116024 辽宁省大连市高新园区凌工路2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。