08 2018 档案

摘要:在强化学习(四)用蒙特卡罗法(MC)求解中,我们讲到了使用蒙特卡罗法来求解强化学习问题的方法,虽然蒙特卡罗法很灵活,不需要环境的状态转化概率模型,但是它需要所有的采样序列都是经历完整的状态序列。如果我们没有完整的状态序列,那么就无法使用蒙特卡罗法求解了。本文我们就来讨论可以不使用完整状态序列求解强化 阅读全文
posted @ 2018-08-24 18:23 刘建平Pinard 阅读(76382) 评论(131) 推荐(16) 编辑
摘要:在强化学习(三)用动态规划(DP)求解中,我们讨论了用动态规划来求解强化学习预测问题和控制问题的方法。但是由于动态规划法需要在每一次回溯更新某一个状态的价值时,回溯到该状态的所有可能的后续状态。导致对于复杂问题计算量很大。同时很多时候,我们连环境的状态转化模型P都无法知道,这时动态规划法根本没法 阅读全文
posted @ 2018-08-17 18:04 刘建平Pinard 阅读(72136) 评论(108) 推荐(17) 编辑
摘要:在强化学习(二)马尔科夫决策过程(MDP)中,我们讨论了用马尔科夫假设来简化强化学习模型的复杂度,这一篇我们在马尔科夫假设和贝尔曼方程的基础上讨论使用动态规划(Dynamic Programming, DP)来求解强化学习的问题。 动态规划这一篇对应Sutton书的第四章和UCL强化学习课程的第三讲 阅读全文
posted @ 2018-08-12 20:36 刘建平Pinard 阅读(73112) 评论(103) 推荐(22) 编辑
摘要:在强化学习(一)模型基础中,我们讲到了强化学习模型的8个基本要素。但是仅凭这些要素还是无法使用强化学习来帮助我们解决问题的, 在讲到模型训练前,模型的简化也很重要,这一篇主要就是讲如何利用马尔科夫决策过程(Markov Decision Process,以下简称MDP)来简化强化学习的建模。 MDP 阅读全文
posted @ 2018-08-05 18:09 刘建平Pinard 阅读(157043) 评论(142) 推荐(26) 编辑

点击右上角即可分享
微信分享提示