08 2022 档案

摘要:引言:为什么 Transformer 在 RL 上不 work Transformer 最早发源于自然语言处理领域(NLP),以一个非常惊人的标题 “Attention is All You Need” 催生了无数后续工作,而 Transformer 最近的一些变体已经在 NLP 领域证明了其可以在 阅读全文
posted @ 2022-08-30 21:49 OpenDILab 阅读(501) 评论(0) 推荐(0) 编辑
摘要:引言 探索和利用的平衡 (The banlance between exploration and exploitation) 是强化学习中最核心的问题之一。 一般来说,利用指的是利用当前已知知识做出最优动作,探索指的是探索未知的环境以获取新的知识,从而潜在地可能得到回报更大的动作。探索与利用如何平 阅读全文
posted @ 2022-08-25 12:05 OpenDILab 阅读(202) 评论(0) 推荐(0) 编辑
摘要:引言 如果想要将强化学习技术应用在某个决策领域,最重要的就是将原始问题转换为一个合理的 MDP (马尔科夫决策过程)问题,而一旦问题环境本身有一些不那么友好的”特性“(比如部分可观测,非平稳过程等等),常规强化学习方法的效果便可能大打折扣。另一方面,随着近些年来数据驱动范式的发展,大数据和预训练大模 阅读全文
posted @ 2022-08-16 10:56 OpenDILab 阅读(531) 评论(0) 推荐(0) 编辑
摘要:介绍一下OpenDILab团队最新提出的自动驾驶策略InterFuser(Interpretable Sensor Fusion Transformer)。该策略基于Transformer进行多传感器融合的和使用可解释性特征增加自动驾驶的安全性,在最新的CARLA Leaderboard排行榜中取得 阅读全文
posted @ 2022-08-09 21:45 OpenDILab 阅读(793) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示