12 2020 档案

摘要:标题:Action Recognition and Interpretation from Virtual Demonstrations 作者:Andrei Haidu,Michael Beetz 0. 摘要 为了根据抽象指令正确执行任务,自主机器人需要精炼的推理能力,以弥合模棱两可的描述与执行隐式 阅读全文
posted @ 2020-12-30 21:00 feifanren 阅读(72) 评论(0) 推荐(0) 编辑
摘要:标题:On-line simultaneous learning and recognition of everyday activities from virtual reality performances 作者:Tamas Bates1, Karinne Ramirez-Amaro1, Tet 阅读全文
posted @ 2020-12-30 19:13 feifanren 阅读(110) 评论(0) 推荐(0) 编辑
摘要:标题·:KnowRob 2.0 — A 2nd Generation Knowledge Processing Framework for Cognition-enabled Robotic Agents 作者:Michael Beetz1, Daniel Beßler1†, Andrei Haid 阅读全文
posted @ 2020-12-30 16:27 feifanren 阅读(567) 评论(0) 推荐(0) 编辑
摘要:标题:On-line simultaneous learning and recognition of everyday activities from virtual reality performances 作者:Tamas Bates1, Karinne Ramirez-Amaro1, Tet 阅读全文
posted @ 2020-12-30 16:26 feifanren 阅读(80) 评论(0) 推荐(0) 编辑
摘要:标题:KnowRob: A knowledge processing infrastructure for cognition-enabled robots KnowRob:支持认知的机器人的知识处理基础架构 作者:Moritz Tenorth and Michael Beetz 0.摘要 自主服务 阅读全文
posted @ 2020-12-30 11:54 feifanren 阅读(792) 评论(0) 推荐(0) 编辑
摘要:NASA ON-ORBIT ASSEMBLY OF SPACE ASSETS: A PATH TO AFFORDABLE AND ADAPTABLE SPACE INFRASTRUCTURE 0. 摘要 在轨装配是迈向高度适应和能力强的空间基础设施发展的重要一步。 将模块化构建模块组装到功能复杂的基 阅读全文
posted @ 2020-12-29 16:17 feifanren 阅读(104) 评论(0) 推荐(0) 编辑
摘要:Automated Models of Human Everyday Activity based on Game and Virtual Reality Technology 基于游戏和虚拟现实技术的人类日常活动自动化模型 作者:Andrei Haidu and Michael Beetz 作者主 阅读全文
posted @ 2020-12-28 16:29 feifanren 阅读(169) 评论(0) 推荐(0) 编辑
摘要:Learning Motion Parameterizations of Mobile Pick and Place Actions from Observing Humans in Virtual Environments 通过在虚拟环境中观察人类来学习移动拾取和放置动作的运动参数化 在本文中,我 阅读全文
posted @ 2020-12-27 22:38 feifanren 阅读(188) 评论(0) 推荐(0) 编辑
摘要:1.High-Fidelity Grasping in Virtual Reality Using Glove-Based System 基于手套的系统在虚拟现实中的高保真抓取 2. Unsupervised Out-Of-Context Action Understanding 无监督的上下文外动 阅读全文
posted @ 2020-12-24 11:35 feifanren 阅读(639) 评论(0) 推荐(0) 编辑
摘要:机器人学习操纵综述:挑战,表示形式和算法 1.介绍 因此,研究人员专注于机器人应如何学习操纵周围世界的问题。 这项研究的范围很广,从学习个人操作技巧到人类演示,再到学习适用于高级计划的操作任务的抽象描述,再到通过与对象交互来发现对象的功能,以及介于两者之间的许多目标。 我们自己的工作中的一些示例如图 阅读全文
posted @ 2020-12-24 11:31 feifanren 阅读(312) 评论(0) 推荐(0) 编辑
摘要:Robot Learning of Everyday Object Manipulations via Human Demonstration 通过人类演示对日常对象操纵进行机器人学习 0.摘要 我们处理的问题是教机器人如何通过人类演示来操纵日常物体。 我们首先设计一个任务描述符,它封装了任务的重要 阅读全文
posted @ 2020-12-22 22:32 feifanren 阅读(369) 评论(0) 推荐(0) 编辑
摘要:https://blog.csdn.net/dcrmg/article/details/53180369 阅读全文
posted @ 2020-12-22 17:17 feifanren 阅读(89) 评论(0) 推荐(0) 编辑
摘要:1.Sim2Real Transfer for Reinforcement Learning without Dynamics Randomization Sim2Real Transfer用于无需动态随机化的强化学习 2.Combining Compliance Control, CAD Base 阅读全文
posted @ 2020-12-21 19:41 feifanren 阅读(895) 评论(0) 推荐(0) 编辑
摘要:Contact Skill Imitation Learning for Robot-Independent Assembly Programming 用于机器人独立装配编程的接触技能模仿学习 摘要—机器人自动化是技术进步的关键驱动力。但是,人类工人的技能难以编程,并且目前看来是技术系统无法比拟的。 阅读全文
posted @ 2020-12-21 14:31 feifanren 阅读(260) 评论(0) 推荐(0) 编辑
摘要:1.3D Deformable Object Manipulation Using Deep Neural Networks 摘要:由于其高二维性,可变形对象操纵是机器人技术中的一个难题。在本文中,我们提出了一种基于深度神经网络的控制器,以伺服控制具有未知变形特性的可变形物体的位置和形状。特别是,使 阅读全文
posted @ 2020-12-21 14:29 feifanren 阅读(732) 评论(0) 推荐(0) 编辑
摘要:1.Sim2Real Transfer for Reinforcement Learning without Dynamics Randomization 2.KOVIS: Keypoint-Based Visual Servoing with Zero-Shot Sim-To-Real Trans 阅读全文
posted @ 2020-12-15 20:16 feifanren 阅读(707) 评论(0) 推荐(0) 编辑
摘要:[1]. Benchmark for Skill Learning from Demonstration: Impact of User Experience, Task Complexity, and Start Configuration on Performance 作者:M. Asif Ra 阅读全文
posted @ 2020-12-10 21:53 feifanren 阅读(928) 评论(0) 推荐(0) 编辑
摘要:Learning to combine primitive skills: A step towards versatile robotic manipulation 0.摘要 对于机器人和视觉而言,诸如准备饭菜或组装家具之类的操作任务仍然极具挑战性。传统的任务和动作计划(TAMP)方法可以解决复杂 阅读全文
posted @ 2020-12-07 22:05 feifanren 阅读(267) 评论(0) 推荐(0) 编辑
摘要:Robot Learning from Demonstration in Robotic Assembly: A Survey Zuyuan Zhu Huosheng Hu 0.摘要 从演示中学习(LfD)已被用来帮助机器人自主地执行操纵任务,特别是通过观察人类演示者执行的动作来学习操纵行为。 本文 阅读全文
posted @ 2020-12-06 21:50 feifanren 阅读(869) 评论(0) 推荐(0) 编辑
摘要:Learning to Grasp from a Single Demonstration 从一个单一的示范中学习抓取 Learning-based approaches for robotic grasping using visual sensors typically require coll 阅读全文
posted @ 2020-12-04 17:03 feifanren 阅读(204) 评论(0) 推荐(0) 编辑
摘要:今天分享一篇关于通过视觉线索对物体的 Affordance 进行推理的文章:Demo2Vec: Reasoning Object Affordances from Online Videos. 0.摘要 观看专家演示是人类和机器人推理看不见的物体的重要方式。 在本文中,我们通过演示视频的特征嵌入来考 阅读全文
posted @ 2020-12-04 11:44 feifanren 阅读(137) 评论(0) 推荐(0) 编辑
摘要:Reasoning about Object Affordances in a Knowledge Base Representation 0.摘要 关于对象及其能力的推理是视觉智能的基本问题。 以前的大多数工作将这个问题归为分类任务,其中训练了单独的分类器以标记对象,识别属性或能力。 在这项工作中 阅读全文
posted @ 2020-12-03 20:34 feifanren 阅读(134) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示