10 2021 档案
摘要:注:本文是对使用Python进行数据处理时常用的函数进行总结。 array的一些简单用法(再也不想用一次查一次了) 排序及索引 import numpy as np a = np.arange(100) b = sorted(a) a.sort() # 上述b是对a排序之后的新数组,a对象直接调用s
阅读全文
摘要:本节是在画图过程中不断【百度】得到的经验汇总,主要是为了自己以后少查几次-_- subplot 和 bar 该函数主要是用来划分画布块的,一般想要在一个页面中画多幅图时使用。 具体使用步骤如下: import matplotlib.pyplot as plt import numpy as np p
阅读全文
摘要:
注:本节内容是对Sutton的《Reinforcement Learning:An Introduction》第八章的理解整理~ 这里是第九、十、十一节 启发式搜索 启发式搜索是在搜索过程中加入别的表征量,帮助搜索更加快捷准确,不需要像之前一样全部遍历。 在启发式搜索中,对于每个遇到的状态,都建立一
阅读全文

摘要:
注:本节内容是对Sutton的《Reinforcement Learning:An Introduction》第八章的理解整理~ 这里是第八节 我们在之前提过,规划用通俗的语言来解释就是分析已有的东西,做出在当前条件下最好的选择。然后根据这一尝试继续去分析找到好的策略和动作去执行。 后台规划是一直在
阅读全文

摘要:注:本节内容是对Sutton的《Reinforcement Learning:An Introduction》第八章的理解整理~ 这里是第七节 本节介绍的是轨迹采样的一个特例 实时动态规划 实时动态规划(real-time dynamic programming, RTDP)是动态规划(Dynami
阅读全文
摘要:注:本节内容是对Sutton的《Reinforcement Learning:An Introduction》第八章的理解整理~ 这里是第六节 第五节主要阐述了两种状态更新过程的优缺点对比,本节主要介绍两种分布式更新过程的算力分配方法:即着重更新哪些状态 一种方法是基于动态规划的经典方法:遍历整个状
阅读全文
摘要:注:本节内容是对Sutton的《Reinforcement Learning:An Introduction》第八章的理解整理~ 这里是第四、五节 在这一章的脉络中,首先将有模型和无模型的方法联系起来,平衡了真实经验和模拟经验,给出了使用表格型方法求解的基本模型,对环境进行统一。然后讨论了环境发生变
阅读全文