08 2022 档案
摘要:引言:为什么 Transformer 在 RL 上不 work Transformer 最早发源于自然语言处理领域(NLP),以一个非常惊人的标题 “Attention is All You Need” 催生了无数后续工作,而 Transformer 最近的一些变体已经在 NLP 领域证明了其可以在
阅读全文
摘要:引言 探索和利用的平衡 (The banlance between exploration and exploitation) 是强化学习中最核心的问题之一。 一般来说,利用指的是利用当前已知知识做出最优动作,探索指的是探索未知的环境以获取新的知识,从而潜在地可能得到回报更大的动作。探索与利用如何平
阅读全文
摘要:引言 如果想要将强化学习技术应用在某个决策领域,最重要的就是将原始问题转换为一个合理的 MDP (马尔科夫决策过程)问题,而一旦问题环境本身有一些不那么友好的”特性“(比如部分可观测,非平稳过程等等),常规强化学习方法的效果便可能大打折扣。另一方面,随着近些年来数据驱动范式的发展,大数据和预训练大模
阅读全文
摘要:介绍一下OpenDILab团队最新提出的自动驾驶策略InterFuser(Interpretable Sensor Fusion Transformer)。该策略基于Transformer进行多传感器融合的和使用可解释性特征增加自动驾驶的安全性,在最新的CARLA Leaderboard排行榜中取得
阅读全文