申请/专利权人:重庆大学
申请日:2024-04-23
公开(公告)日:2024-06-25
公开(公告)号:CN118238142A
主分类号:B25J9/16
分类号:B25J9/16
优先权:
专利状态码:在审-公开
法律状态:2024.06.25#公开
摘要:本发明公开了一种基于示教学习的五指灵巧臂‑手机器人抓取方法,属于智能机器人领域。该方法包含机械臂末端轨迹的示教,灵巧手的示教、抓取任务演示三个部分。机械臂的示教先基于动态运动原语学习离线采集的示教路径特征,结合深度相机在线感知的抓取物体位置生成新的机械臂末端轨迹;灵巧手的动作示教基于一个动作重定向神经网络,提取示教者手部动作姿态信息,生成适用于灵巧手抓取任务的关节参数抓取不同物体;仿真演示将臂和手两部分单独示教的方法按照臂‑手机器人的抓取任务流程进行组合,生成运动参数并传入仿真场景中,臂‑手机器人按照生成的参数分步执行操作,成功接近和抓取目标物体,最终实现基于示教学习的臂‑手机器人的抓取任务。
主权项:1.一种基于示教学习的五指灵巧臂-手机器人的抓取方法,其特征在于,具体步骤如下:步骤S1:搭建一个机器人抓取任务场景,然后针对该场景将机器人的抓取任务流程进行分割,将其划分为可单独执行的机械臂和灵巧手任务;步骤S2:基于步骤S1划分的子任务,先对机械臂的运行轨迹进行示教,采用人机物理交互的方式获取机械臂末端轨迹示教数据后,再基于动态运动原语方法对示教轨迹的路径形状进行学习,并结合RGB-D相机感知的抓取点位置,生成此时机械臂末端到达抓取点目标位置的运行轨迹,机器人按照生成的不同轨迹高效的接近不同位置的抓取物体;步骤S3:机械臂通过步骤S2到达抓取目标位置后,先利用MediaPipeHands算法获取代表当前示教者手部的动作姿态的关键点三维坐标数据,然后搭建一个动作重定向神经网络,对采集的手部示教数据进行处理,将当前的示教者手部动作映射到灵巧手机器人上,从而实现臂手机器人对物体的抓取;步骤S4:依据步骤S1划分的任务流程,再将步骤S2和步骤S3进行组合,组建一个完整的臂-手机器人抓取任务流程,机器人按照流程分步执行操作,成功接近和抓取目标物体,最终成功完成整个抓取任务。
全文数据:
权利要求:
百度查询: 重庆大学 一种基于示教学习的五指灵巧臂-手机器人抓取方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。