会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
initial_h
https://github.com/initial-h
博客园
首页
新随笔
管理
上一页
1
···
4
5
6
7
8
9
10
11
12
下一页
2021年11月24日
Selective Dyna-Style Planning Under Limited Model Capacity
摘要: **发表时间:**2020(ICML 2020) **文章要点:**这篇文章考虑的情形是,用imperfect model来planning的时候,由于model的误差会导致planning不准,所以就需要有选择性的planning,通过度量predictive uncertainty只在模型预测准
阅读全文
posted @ 2021-11-24 12:03 initial_h
阅读(60)
评论(0)
推荐(0)
编辑
2021年11月22日
Search on the Replay Buffer: Bridging Planning and Reinforcement Learning
摘要: **发表时间:**2019(NeurIPS 2019) **文章要点:**这篇文章结合planning和强化学习来解决复杂任务,主要思路是通过强化学习(Goal-conditioned RL)的方式构建一个图结构(graph),图里的节点就包括起始位置,目标位置以及中间点,这就相当于把一个远距离的目
阅读全文
posted @ 2021-11-22 12:42 initial_h
阅读(129)
评论(0)
推荐(0)
编辑
2021年11月20日
Checkers Is Solved
摘要: **发表时间:**2007(science) **文章要点:**这篇文章主要说checkers已经被解决了,得出的结论是如果两边都不犯错的话,这个游戏的最终结果是平局(Perfect play by both sides leads to a draw)。Solve其实有三种含义,ultraweak
阅读全文
posted @ 2021-11-20 23:53 initial_h
阅读(57)
评论(0)
推荐(0)
编辑
WarpDrive: Extremely Fast End-to-End Deep Multi-Agent Reinforcement Learning on a GPU
摘要: **发表时间:**2021 **文章要点:**这篇文章通过将整个RL过程放到GPU上,实现速度提升。主要做法就是将环境放到GPU上,减少了CPU和GPU之间的数据传输和通信时间,在GPU上实现整个训练的交互过程。然后一块GPU上就可以做并行训练,同时data存储用占位然后不断更新的方式进行,而不是开
阅读全文
posted @ 2021-11-20 23:49 initial_h
阅读(93)
评论(0)
推荐(0)
编辑
2021年11月17日
RODE: LEARNING ROLES TO DECOMPOSE MULTI-AGENT TASKS
摘要: **发表时间:**2021(ICLR 2021) **文章要点:**这篇文章用角色(roles)来分解复杂任务,解决多智能体问题。主要思路是根据动作对环境和其他agents的影响来分解动作空间,形成不同的角色动作空间(role action space),然后通过role selector来给age
阅读全文
posted @ 2021-11-17 13:45 initial_h
阅读(258)
评论(0)
推荐(0)
编辑
NEURAL PROBABILISTIC MOTOR PRIMITIVES FOR HUMANOID CONTROL
摘要: **发表时间:**2019(ICLR 2019) **文章要点:**这篇文章主要是想学习人类的控制策略,并且能够重复使用。主要思路就是通过监督学习去学一个叫做neural probabilistic motor primitives的模型。这个模型包括一个encoder和一个decoder 这里$s
阅读全文
posted @ 2021-11-17 13:37 initial_h
阅读(109)
评论(0)
推荐(0)
编辑
2021年11月14日
CoMic: Complementary Task Learning & Mimicry for Reusable Skills
摘要: **发表时间:**2020(ICML 2020) **文章要点:**这篇文章想要先学low-level policy,然后基于low-level policy来训练一些强化的任务,这样就相当于可以用reusable skills来加快下游任务的训练。主要思路是通过模仿学习和联合辅助任务训练来学reu
阅读全文
posted @ 2021-11-14 11:53 initial_h
阅读(128)
评论(0)
推荐(0)
编辑
2021年11月12日
MOReL: Model-Based Offline Reinforcement Learning
摘要: **发表时间:**2020(NeurIPS 2020) **文章要点:**这篇文章用model based方法去做offline RL。主要分为两步,第一步是用offline data学一个pessimistic MDP (P-MDP),第二步就是用这个P-MDP去学一个near-optimal p
阅读全文
posted @ 2021-11-12 14:25 initial_h
阅读(589)
评论(0)
推荐(1)
编辑
2021年11月10日
Learning to Combat Compounding-Error in Model-Based Reinforcement Learning
摘要: **发表时间:**2019(NeurIPS 2019 Deep Reinforcement Learning Workshop) **文章要点:**这篇文章想说model based方法里面通常model都是imperfect的,就是这个model一般只在局部是准确的,放到全局上看误差会越来越大,所
阅读全文
posted @ 2021-11-10 09:47 initial_h
阅读(116)
评论(0)
推荐(0)
编辑
2021年11月8日
Diagnosing Bottlenecks in Deep Q-learning Algorithms
摘要: **发表时间:**2019(ICML 2019) **文章要点:**这篇文章主要是做实验研究Q-learning在加入function approximation之后会出现什么问题,以及具体是什么原因造成的。文章主要研究了function approximation, sampling error和
阅读全文
posted @ 2021-11-08 12:36 initial_h
阅读(94)
评论(0)
推荐(0)
编辑
2021年11月6日
Risk-Aware and Multi-Objective Decision Making with Distributional Monte Carlo Tree Search
摘要: **发表时间:**2021 (AAMAS 2021 extended abstract) **文章要点:**这篇文章想说通常RL都是去最大化累计回报,这个值通常都是标量,标量反映出来的信息肯定就没有分布多。这篇文章就在risk-aware and multi-objective的设定下用MCTS来做
阅读全文
posted @ 2021-11-06 12:25 initial_h
阅读(125)
评论(0)
推荐(0)
编辑
Online Robust Principal Component Analysis with Change Point Detection
摘要: **发表时间:**2019(IEEE Transactions on Multimedia) **文章要点:**这篇文章想说现在的online PCA对于changing point不能识别,就会造成online的更新不能及时调整适应,造成性能变差。这里的changing point指的是突然变化的
阅读全文
posted @ 2021-11-06 12:03 initial_h
阅读(63)
评论(0)
推荐(0)
编辑
2021年11月3日
Online PCA for Contaminated Data
摘要: **发表时间:**2013(NIPS 2013) **文章要点:**这篇文章提出了一个online robust PCA算法。在online case下,需要根据数据流不断更新Principal Component,但是数据流里面可能有异常值,如果不剔除就会影响Principal Component
阅读全文
posted @ 2021-11-03 13:06 initial_h
阅读(97)
评论(0)
推荐(0)
编辑
2021年11月1日
LEARNING WITH AMIGO: ADVERSARIALLY MOTIVATED INTRINSIC GOALS
摘要: **发表时间:**2021(ICLR 2021) **文章要点:**这篇文章提出了一个解决sparse extrinsic rewards的办法AMIGO。思路就是用一个goal-generating teacher来生成难度适中的任务目标(constructively adversarial ob
阅读全文
posted @ 2021-11-01 12:51 initial_h
阅读(149)
评论(0)
推荐(0)
编辑
LEARNING INVARIANT REPRESENTATIONS FOR REINFORCEMENT LEARNING WITHOUT RECONSTRUCTION
摘要: **发表时间:**2021(ICLR 2021) **文章要点:**这篇文章想说,在state里面其实有很多任务无关的东西,如果用Reconstruction之类的方式去做就还是会考虑这些东西,作者提出用Bisimulation metric去做representation,让latent spac
阅读全文
posted @ 2021-11-01 12:38 initial_h
阅读(341)
评论(0)
推荐(0)
编辑
上一页
1
···
4
5
6
7
8
9
10
11
12
下一页
公告