上一页 1 ··· 4 5 6 7 8 9 10 11 12 下一页
摘要: **发表时间:**2020(ICML 2020) **文章要点:**这篇文章考虑的情形是,用imperfect model来planning的时候,由于model的误差会导致planning不准,所以就需要有选择性的planning,通过度量predictive uncertainty只在模型预测准 阅读全文
posted @ 2021-11-24 12:03 initial_h 阅读(60) 评论(0) 推荐(0) 编辑
摘要: **发表时间:**2019(NeurIPS 2019) **文章要点:**这篇文章结合planning和强化学习来解决复杂任务,主要思路是通过强化学习(Goal-conditioned RL)的方式构建一个图结构(graph),图里的节点就包括起始位置,目标位置以及中间点,这就相当于把一个远距离的目 阅读全文
posted @ 2021-11-22 12:42 initial_h 阅读(129) 评论(0) 推荐(0) 编辑
摘要: **发表时间:**2007(science) **文章要点:**这篇文章主要说checkers已经被解决了,得出的结论是如果两边都不犯错的话,这个游戏的最终结果是平局(Perfect play by both sides leads to a draw)。Solve其实有三种含义,ultraweak 阅读全文
posted @ 2021-11-20 23:53 initial_h 阅读(57) 评论(0) 推荐(0) 编辑
摘要: **发表时间:**2021 **文章要点:**这篇文章通过将整个RL过程放到GPU上,实现速度提升。主要做法就是将环境放到GPU上,减少了CPU和GPU之间的数据传输和通信时间,在GPU上实现整个训练的交互过程。然后一块GPU上就可以做并行训练,同时data存储用占位然后不断更新的方式进行,而不是开 阅读全文
posted @ 2021-11-20 23:49 initial_h 阅读(93) 评论(0) 推荐(0) 编辑
摘要: **发表时间:**2021(ICLR 2021) **文章要点:**这篇文章用角色(roles)来分解复杂任务,解决多智能体问题。主要思路是根据动作对环境和其他agents的影响来分解动作空间,形成不同的角色动作空间(role action space),然后通过role selector来给age 阅读全文
posted @ 2021-11-17 13:45 initial_h 阅读(258) 评论(0) 推荐(0) 编辑
摘要: **发表时间:**2019(ICLR 2019) **文章要点:**这篇文章主要是想学习人类的控制策略,并且能够重复使用。主要思路就是通过监督学习去学一个叫做neural probabilistic motor primitives的模型。这个模型包括一个encoder和一个decoder 这里$s 阅读全文
posted @ 2021-11-17 13:37 initial_h 阅读(109) 评论(0) 推荐(0) 编辑
摘要: **发表时间:**2020(ICML 2020) **文章要点:**这篇文章想要先学low-level policy,然后基于low-level policy来训练一些强化的任务,这样就相当于可以用reusable skills来加快下游任务的训练。主要思路是通过模仿学习和联合辅助任务训练来学reu 阅读全文
posted @ 2021-11-14 11:53 initial_h 阅读(128) 评论(0) 推荐(0) 编辑
摘要: **发表时间:**2020(NeurIPS 2020) **文章要点:**这篇文章用model based方法去做offline RL。主要分为两步,第一步是用offline data学一个pessimistic MDP (P-MDP),第二步就是用这个P-MDP去学一个near-optimal p 阅读全文
posted @ 2021-11-12 14:25 initial_h 阅读(589) 评论(0) 推荐(1) 编辑
摘要: **发表时间:**2019(NeurIPS 2019 Deep Reinforcement Learning Workshop) **文章要点:**这篇文章想说model based方法里面通常model都是imperfect的,就是这个model一般只在局部是准确的,放到全局上看误差会越来越大,所 阅读全文
posted @ 2021-11-10 09:47 initial_h 阅读(116) 评论(0) 推荐(0) 编辑
摘要: **发表时间:**2019(ICML 2019) **文章要点:**这篇文章主要是做实验研究Q-learning在加入function approximation之后会出现什么问题,以及具体是什么原因造成的。文章主要研究了function approximation, sampling error和 阅读全文
posted @ 2021-11-08 12:36 initial_h 阅读(94) 评论(0) 推荐(0) 编辑
摘要: **发表时间:**2021 (AAMAS 2021 extended abstract) **文章要点:**这篇文章想说通常RL都是去最大化累计回报,这个值通常都是标量,标量反映出来的信息肯定就没有分布多。这篇文章就在risk-aware and multi-objective的设定下用MCTS来做 阅读全文
posted @ 2021-11-06 12:25 initial_h 阅读(125) 评论(0) 推荐(0) 编辑
摘要: **发表时间:**2019(IEEE Transactions on Multimedia) **文章要点:**这篇文章想说现在的online PCA对于changing point不能识别,就会造成online的更新不能及时调整适应,造成性能变差。这里的changing point指的是突然变化的 阅读全文
posted @ 2021-11-06 12:03 initial_h 阅读(63) 评论(0) 推荐(0) 编辑
摘要: **发表时间:**2013(NIPS 2013) **文章要点:**这篇文章提出了一个online robust PCA算法。在online case下,需要根据数据流不断更新Principal Component,但是数据流里面可能有异常值,如果不剔除就会影响Principal Component 阅读全文
posted @ 2021-11-03 13:06 initial_h 阅读(97) 评论(0) 推荐(0) 编辑
摘要: **发表时间:**2021(ICLR 2021) **文章要点:**这篇文章提出了一个解决sparse extrinsic rewards的办法AMIGO。思路就是用一个goal-generating teacher来生成难度适中的任务目标(constructively adversarial ob 阅读全文
posted @ 2021-11-01 12:51 initial_h 阅读(149) 评论(0) 推荐(0) 编辑
摘要: **发表时间:**2021(ICLR 2021) **文章要点:**这篇文章想说,在state里面其实有很多任务无关的东西,如果用Reconstruction之类的方式去做就还是会考虑这些东西,作者提出用Bisimulation metric去做representation,让latent spac 阅读全文
posted @ 2021-11-01 12:38 initial_h 阅读(341) 评论(0) 推荐(0) 编辑
上一页 1 ··· 4 5 6 7 8 9 10 11 12 下一页