随笔分类 -  DQN入门

DQN入门教程
摘要:emm,花了一周时间完成了DQN的从入门到入土,这个系列是完完全全的入门系列,因为讲的内容很简单,内容也比较少,仅仅是一个最基本的介绍。 我也是因为偶然的原因才接触到强化学习,然后觉得很有意思,比较好奇它是怎么做到的,于是就花了一段时间去了解,接着就将自己的入门过程就写下来了。 这个系列相比较与数据 阅读全文
posted @ 2020-05-31 23:10 渣渣辉啊 阅读(1531) 评论(0) 推荐(0) 编辑
摘要:在DQN(Deep Q-learning)入门教程(四)之Q-learning Play Flappy Bird中,我们使用q-learning算法去对Flappy Bird进行强化学习,而在这篇博客中我们将使用神经网络模型来代替Q-table,关于DQN的介绍,可以参考我前一篇博客:DQN(Dee 阅读全文
posted @ 2020-05-31 22:16 渣渣辉啊 阅读(4310) 评论(4) 推荐(1) 编辑
摘要:简介 DQN——Deep Q-learning。在上一篇博客DQN(Deep Q-learning)入门教程(四)之Q-learning Play Flappy Bird 中,我们使用Q-Table来储存state与action之间的q值,那么这样有什么不足呢?我们可以将问题的稍微复杂化一点了,如果 阅读全文
posted @ 2020-05-30 17:04 渣渣辉啊 阅读(9647) 评论(0) 推荐(0) 编辑
摘要:在上一篇博客中,我们详细的对Q-learning的算法流程进行了介绍。同时我们使用了$\epsilon-贪婪法$防止陷入局部最优。 那么我们可以想一下,最后我们得到的结果是什么样的呢?因为我们考虑到了所有的($\epsilon-贪婪法$导致的)情况,因此最终我们将会得到一张如下的Q-Table表。 阅读全文
posted @ 2020-05-30 01:51 渣渣辉啊 阅读(4760) 评论(0) 推荐(0) 编辑
摘要:蒙特卡罗法 在介绍Q-learing算法之前,我们还是对蒙特卡罗法(MC)进行一些介绍。MC方法是一种无模型(model-free)的强化学习方法,目标是得到最优的行为价值函数$q_*$。在前面一篇博客中,我们所介绍的动态规划算法则是一种有模型的算法。那么问题来了,什么是模型(model)?模型其实 阅读全文
posted @ 2020-05-28 02:37 渣渣辉啊 阅读(4902) 评论(0) 推荐(0) 编辑
摘要:在上一篇博客:DQN(Deep Q-learning)入门教程(一)之强化学习介绍中有三个很重要的函数: 策略:\(\pi(a|s) = P(A_t=a | S_t=s)\) 状态价值函数:\(v_\pi(s)=\mathbb{E}\left[R_{t+1}+\gamma \left(S_{t+1} 阅读全文
posted @ 2020-05-27 15:21 渣渣辉啊 阅读(5303) 评论(2) 推荐(2) 编辑
摘要:什么是强化学习? 强化学习(Reinforcement learning,简称RL)是和监督学习,非监督学习并列的第三种机器学习方法,如下图示: 首先让我们举一个小时候的例子: 你现在在家,有两个动作选择:打游戏和读书。如果选择打游戏的话,你就跑到了网吧,选择读书的话,就坐在了书桌面前。你爸妈下班回 阅读全文
posted @ 2020-05-24 11:25 渣渣辉啊 阅读(17719) 评论(6) 推荐(1) 编辑
摘要:简介 DQN入门系列地址: "https://www.cnblogs.com/xiaohuiduan/category/1770037.html" 本来呢,在上一个系列 "数据挖掘入门系列" 博客中,我是准备写数据挖掘的教程,然后不知怎么滴,博客越写越偏,写到了神经网络,深度学习去了。在我写完数据挖 阅读全文
posted @ 2020-05-23 23:32 渣渣辉啊 阅读(2532) 评论(0) 推荐(0) 编辑