[顶会论文]IROS2019机器人学习相关论文汇总

1.3D Deformable Object Manipulation Using Deep Neural Networks

摘要:由于其高二维性,可变形对象操纵是机器人技术中的一个难题。在本文中,我们提出了一种基于深度神经网络的控制器,以伺服控制具有未知变形特性的可变形物体的位置和形状。特别是,使用在线学习策略,使用多层神经网络在机器人末端执行器的运动与对象的变形测量​​之间进行映射。此外,我们引入了一种新颖的功能来描述可视化维修中使用的可变形对象的变形。此功能直接从3D点云中提取,而不是像以前的工作一样从2D图像中提取。另外,我们对可变形物体执行同步跟踪和重构,以解决可变形物体操纵期间的局部观察问题。我们验证了我们的算法和控制器在一组可变形对象操作任务上的性能,并证明了我们的方法可以针对具有多种目标设置的通用可变形对象实现有效且准确的伺服控制。

2.3D Shape Control of Linear Deformable Objects by Robot Manipulator

机器人操纵器对线性可变形物体的3D形状控制

3.A Capability-Aware Role Allocation Approach to Industrial Assembly Tasks

工业装配任务的能力感知角色分配方法

基于精益制造原理的工业机器人单元的部署可以开发快速可重新配置的装配线,在此装配线中,人员和机器人代理可以协作完成共同的任务。为了确保共同努力的有效协调,必须根据定义的指标将每个任务分解为一系列原子动作,这些原子动作可以分配给单个代理,也可以分配给更多代理的组合。尽管任务分配是一个普遍的问题,并且在其他领域也进行了深入讨论,但在涉及混合人机团队的工业场景中,人们的工作投入却较少,尤其是在异构代理之间分配任务时应考虑的因素在协作制造方案中。在本文中,我们研究了工业装配过程中快速可重配置系统的任务分配问题中应考虑的代理特征。首先,我们引入一组指标,即任务复杂性,业务代表灵巧性和业务代表工作量,以评估相对于一项任务的业务代表绩效。其次,我们提出了一种离线分配算法,该算法结合了性能指标,以将任务最佳地分配给团队代理。最后,我们在金属结构的概念验证协作组装中验证框架。结果表明,工作负载是根据代理的特定物理能力和技能水平通过代理共享的。对12个健康参与者的拟议协作框架的主观分析也验证了使用的直观性和改进的性能。

4.A Comparison of Action Spaces for Learning Manipulation Tasks

学习操纵任务的动作空间比较

设计强化学习(RL)问题,可以产生精细而精确的操作策略,需要仔细选择奖励功能,状态和动作空间。将RL应用于操纵任务的许多先前工作已经根据关节空间比例微分(PD)控制器的直接关节扭矩或参考位置定义了动作空间。实际上,通常可以通过利用基于模型的控制器来增加其他结构,该控制器同时支持机械手的动态定位和精确定位。在本文中,我们评估了动态操纵任务的动作空间选择如何影响样本的复杂性以及学习策略的最终质量。我们比较了三个任务(钉插入,锤击和推动),四个动作空间(扭矩,关节PD,逆动力学和阻抗控制)的学习性能,并使用了两种现代强化学习算法(近距离策略优化和软演员临界) )。我们的结果为以下假设提供了支持:学习任务空间阻抗控制器的参考可以大大减少在所有任务和算法中实现良好性能所需的样本数量。

5.A Multi-Task Convolutional Neural Network for Autonomous Robotic Grasping in Object Stacking Scenes

自主机器人的抓握在智能机器人中起着重要的作用。但是,如何帮助机器人抓紧物体堆叠场景中的特定物体仍然是一个悬而未决的问题,因为自主机器人面临两个主要挑战:(1)掌握什么以及如何抓握是一项全面的任务; (2)难以处理目标被其他物体隐藏或覆盖的情况。本文提出了一种用于自主机器人抓取的多任务卷积神经网络,它可以帮助机器人在目标堆叠场景中找到目标,制定抓取计划并最终逐步抓取目标。我们将基于视觉的机器人抓取检测和视觉操纵关系推理集成到一个单一的深度网络中,并构建自主的机器人抓取系统。实验结果表明,利用该模型,Baxter机器人可以在物体杂乱的场景,熟悉的堆叠场景和复杂的堆叠场景中分别自动捕获目标,成功率为90.6%,71.9%和59.4%。

6.An Assisted Telemanipulation Approach: Combining Autonomous Grasp Planning with Haptic Cues

辅助远程操纵方法:将自主抓取计划与触觉提示相结合

本文提出了具有集成抓取计划的辅助远程操纵方法。它还研究了在杂乱环境中操纵物体时,人类遥操作性能如何从视觉和触觉提示中受益。开发的系统通过动态抓握重新排序策略和半自主的到达抓取轨迹引导,将广泛使用的主从遥控与我们以前的无模型且无学习的抓取算法相结合。所提出的重新排名度量有助于基于从设备的当前状态动态地更新稳定的掌握。轨迹引导系统通过控制触觉力来帮助维持平滑的轨迹。虚拟姿势控制器已与指导方案集成在一起,以在到达抓地力时自动校正末端执行器的方向。使用六自由度(dof)触觉主控器和七自由度从属机器人对各种建议的方法进行了评估。通过这些测试获得的结果以及从进行的人为因素试验中收集的结果证明,根据任务完成的客观指标以及用户体验的主观指标,我们的方法是有效的。

7.An Object Attribute Guided Framework for Robot Learning Manipulations from Human Demonstration Videos

用于从人类演示视频进行机器人学习操作的对象属性指导框架

我们处理的问题是教机器人如何通过人类演示来操纵日常物体。 我们首先设计一个任务描述符,它封装了任务的重要元素。 该设计源于以下观察结果:许多日常对象任务中涉及的操纵可被视为一系列连续的旋转和平移,我们将其称为操纵原语。 然后,我们提出了一种使机器人能够将演示的任务分解为顺序操作原语并构造任务描述符的方法。 我们还将展示如何将从一个对象学到的任务描述符传输到类似对象。 最后,我们认为该框架是高度通用的。 特别地,它可以用于构建机器人任务数据库,该数据库用作机器人成功操作日常对象的操作知识库。

8.A Teleoperated Hexapod Robot for Imitation Learning Task Training

用于模仿学习任务训练的遥控六足机器人

9.A VR System for Immersive Teleoperation and Live Exploration with a Mobile Robot

使用移动机器人进行沉浸式远程操作和实时探索的VR系统

10. Combined Task and Action Learning from Human Demonstrations for Mobile Manipulation Applications

从人类演示中结合任务和行动学习,以进行移动操纵应用

11.ContactGrasp: Functional Multi-Finger Grasp Synthesis from Contact

ContactGrasp:从接触功能合成多指抓取

掌握和操纵对象是一项重要的人类技能。由于大多数对象被设计为可以由人的手操作,拟人化的手可以实现更丰富的人机交互。理想的抓握不仅稳定,而且功能强大:它们使对象能够抓紧后期动作。然而,由于优化空间较大,仅从对象形状出发就针对高自由度拟人化手的功能性抓取合成具有挑战性。我们介绍了ContactGrasp,这是一个从对象形状和对象表面接触功能进行功能综合的框架。可以手动指定联系方式,也可以通过演示获得联系方式。我们的联系人表示是以对象为中心的,即使对于不同于演示的手形模型,也可以进行功能控制综合。使用来自人类抓握各种家用物品的接触演示数据集,我们合成了三个手形模型和两个功能意图的功能抓取。项目网页是此https URL。

12.Contact Skill Imitation Learning for Robot-Independent Assembly Programming

用于机器人独立装配编程的接触技能模仿学习

13.Deep Reinforcement Learning for Robotic Pushing and Picking in Cluttered Environment

在杂乱环境中进行机器人推入和拾取的深度强化学习

14.Dot-to-Dot: Explainable Hierarchical Reinforcement Learning for Robotic Manipulation

点对点:可解释的分层强化学习,用于机器人操纵

15.Evaluation System for Hydraulic Excavator Operation Skill Using Remote Controlled Excavator and Virtual Reality

基于虚拟挖掘机的液压挖掘机操作技能评价系统

16.General Hand Guidance Framework Using Microsoft HoloLens

使用Microsoft HoloLens的通用手指导框架

手动指导源自协作机器人的安全要求,即拥有关节扭矩传感器。从那时起,它被证明是用于轻松进行轨迹编程的强大工具,允许外行用户直观地对机器人进行重新编程。除此之外,机器人还可以通过动觉教学通过用户演示来学习任务,从而使机器人能够概括任务并进一步减少了重新编程的需求。但是,手动指导仍主要归于协作机器人。在这里,我们提出了一种方法,该方法通过使用Microsoft HoloLens增强现实头戴式显示器,不需要在机器人上或机器人单元中的任何传感器。我们使用注册算法引用机器人,以将机器人模型与空间网格进行匹配。然后使用内置的手部跟踪和定位功能来计算手部相对于机器人的位置。通过将手的运动分解为正交旋转并在运动链中向下传播,我们无需构建机器人本身的动态模型就可以实现广义的手引导。我们在常用的工业机械手KUKA KR-5上测试了我们的方法。

17.Grasping Unknown Objects Based on Gripper Workspace Spheres

在本文中,我们提出了一种新颖的针对未知对象的抓取计划算法,该算法从不同角度给出了目标的注册点云。所提出的方法不需要对象的先验知识,也不需要离线学习。在我们的方法中,机械手运动学模型用于生成每个手指工作空间的点云,然后将其填充球体。在运行时,首先将对象分段,然后在垂直于其约束主要抓取动作的平面中计算其主轴。然后针对各种抓取器姿势对对象进行均匀采样和扫描,以确保每个手指的工作空间中至少有一个对象点。另外,使用计算上便宜的抓爪形状近似值执行与物体或桌子的碰撞检查。我们的方法既省时(平均耗时少于1.5秒),又通用。已经在简单的下颌抓爪(Franka Panda抓爪)以及复杂的高自由度(DoF)手(Allegro手)上进行了成功的实验。

18.Improved Learning Accuracy for Learning Stable Control from Human Demonstrations

从人类演示中学习稳定控制的改进的学习准确性

19.Learning Actions from Human Demonstration Video for Robotic Manipulation

从人类演示视频中学习用于机器人操纵的动作

20.Learning by Demonstration and Robust Control of Dexterous In-Hand Robotic Manipulation Skills

通过演示学习并熟练控制敏捷的机器人操作技巧

21.Learning Multimodal Representations for Sample-Efficient Recognition of Human Actions

学习多模式表示形式,以有效地识别人类行为

人类与环境以多种多样的方式相互作用。 但是,人工行为对此类行为的表示通常受到限制。 在这项工作中,我们介绍\ textit {运动概念},这是一种在家庭环境中人类行为的新颖多模式表示形式。 运动概念包含对动作运动学的概率描述及其上下文背景,即表演过程中的位置和所持物体。 此外,我们提出了在线运动概念学习(OMCL),这是一种新算法,可从动作演示中学习新颖的运动概念并识别以前学习的运动概念。 该算法是在虚拟现实的家庭环境中使用人类化身进行评估的。 OMCL在单次识别任务上胜过标准运动识别算法,证明了其对样本有效识别人类行为的潜力。

22.Learning to Grasp Arbitrary Household Objects from a Single Demonstration

通过一次演示学习掌握任意家用物品

23.Learning Virtual Grasp with Failed Demonstrations via Bayesian Inverse Reinforcement Learning

通过贝叶斯逆向强化学习学习带有失败演示的虚拟把握

24.Mobile Robot Learning from Human Demonstrations with Nonlinear Model Predictive Control

带有非线性模型预测控制的人类演示从移动机器人学习

25.Multi-Hand Direct Manipulation of Complex Constrained Virtual Objects

复杂约束虚拟对象的多手直接操作

26.One-Shot Composition of Vision-Based Skills from Demonstration

演示中的视觉技能一击式合成

27.On Training Flexible Robots Using Deep Reinforcement Learning

关于使用深度强化学习训练柔性机器人

28.Pixel-Attentive Policy Gradient for Multi-Fingered Grasping in Cluttered Scenes

杂乱场景中多手指抓取的像素关注策略梯度

29.Pixels to Plans: Learning Non-Prehensile Manipulation by Imitating a Planner

像素到计划:通过模仿计划者来学习非全面操作

30.Preliminary Evaluation of an Orbital Camera for Teleoperation of Remote Manipulators

用于远程操纵器遥控的轨道摄像机的初步评估

31.Rebellion and Obedience: The Effects of Intention Prediction in Cooperative Handheld Robots

叛逆和服从:合作手持机器人的意图预测的影响

32.Robot Learning of Shifting Objects for Grasping in Cluttered Environments

杂物环境下的移动物体抓取机器人学习

33.Robust, Compliant Assembly with Elastic Parts and Model Uncertainty

坚固,合规的装配,带有弹性零件和模型不确定性

34.ROI-Based Robotic Grasp Detection for Object Overlapping Scenes

基于ROI的对象重叠场景机器人抓取检测

35.Scaling Robot Supervision to Hundreds of Hours with RoboTurk: Robotic Manipulation Dataset through Human Reasoning and Dexterity

使用RoboTurk将机器人监管扩展到数百小时:通过人类推理和敏捷度实现的机器人操纵数据集

36.Semantic Mates: Intuitive Geometric Constraints for Efficient Assembly Specifications

语义配合:有效装配规格的直观几何约束

37.Task-Oriented Grasping in Object Stacking Scenes with CRF-Based Semantic Model

基于CRF的语义模型在对象堆叠场景中的面向任务的抓取

 

posted @ 2020-12-21 14:29  feifanren  阅读(685)  评论(0编辑  收藏  举报