上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 35 下一页
摘要: 一、代码 import random import gym import numpy as np import torch import torch.nn.functional as F import matplotlib.pyplot as plt import rl_utils from tqd 阅读全文
posted @ 2024-03-05 17:08 jasonzhangxianrong 阅读(58) 评论(0) 推荐(0) 编辑
摘要: tensor.gather()的作用就是按照索引取对应的数据出来。之前看图解PyTorch中的torch.gather函数,那个图示看得我有点懵逼,所以自己画了两张图总结了一下规律来理解一下。 首先新建一个3*3的二维矩阵。 import torch ​ t1 = torch.tensor([[1, 阅读全文
posted @ 2024-03-05 17:01 jasonzhangxianrong 阅读(119) 评论(0) 推荐(0) 编辑
摘要: 第 8 章 DQN 改进算法 8.1 简介 DQN 算法敲开了深度强化学习的大门,但是作为先驱性的工作,其本身存在着一些问题以及一些可以改进的地方。于是,在 DQN 之后,学术界涌现出了非常多的改进算法。本章将介绍其中两个非常著名的算法:Double DQN 和 Dueling DQN,这两个算法的 阅读全文
posted @ 2024-03-05 16:15 jasonzhangxianrong 阅读(466) 评论(0) 推荐(0) 编辑
摘要: 一、代码如下: import random import gym import numpy as np import collections from tqdm import tqdm import torch import torch.nn.functional as F import matpl 阅读全文
posted @ 2024-03-05 14:30 jasonzhangxianrong 阅读(865) 评论(0) 推荐(0) 编辑
摘要: 第 7 章 DQN 算法 7.1 简介 在第 5 章讲解的 Q-learning 算法中,我们以矩阵的方式建立了一张存储每个状态下所有动作\(Q\)值的表格。表格中的每一个动作价值\(Q(s,a)\)表示在状态\(s\)下选择动作\(a\)然后继续遵循某一策略预期能够得到的期望回报。然而,这种用表格 阅读全文
posted @ 2024-03-04 18:06 jasonzhangxianrong 阅读(1145) 评论(0) 推荐(0) 编辑
摘要: 第 6 章 Dyna-Q 算法 6.1 简介 在强化学习中,“模型”通常指与智能体交互的环境模型,即对环境的状态转移概率和奖励函数进行建模。根据是否具有环境模型,强化学习算法分为两种:基于模型的强化学习(model-based reinforcement learning)和无模型的强化学习(mod 阅读全文
posted @ 2024-03-04 17:24 jasonzhangxianrong 阅读(200) 评论(0) 推荐(0) 编辑
摘要: 1、强化学习介绍 强化学习是指智能体通过与环境进行交互,不断的通过试错,以获得更大的累计奖励为目的,得到更好的策略。强化学习的学习路线比较陡峭,因为涉及到的数学知识更多一些,需要概率论、随机过程的知识。这里通过我自己的一些学习经验以及看过的一些资料,整理了一条逐渐深入的学习路线,可以大幅度提高学习效 阅读全文
posted @ 2024-03-04 16:24 jasonzhangxianrong 阅读(218) 评论(0) 推荐(0) 编辑
摘要: 一、单步sarsa import matplotlib.pyplot as plt import numpy as np from tqdm import tqdm # tqdm是显示循环进度条的库 class CliffWalkingEnv: def __init__(self, ncol, nr 阅读全文
posted @ 2024-03-03 20:40 jasonzhangxianrong 阅读(76) 评论(0) 推荐(0) 编辑
摘要: 第 5 章 时序差分算法 5.1 简介 第 4 章介绍的动态规划算法要求马尔可夫决策过程是已知的,即要求与智能体交互的环境是完全已知的(例如迷宫或者给定规则的网格世界)。在此条件下,智能体其实并不需要和环境真正交互来采样数据,直接用动态规划算法就可以解出最优价值或策略。这就好比对于有监督学习任务,如 阅读全文
posted @ 2024-03-03 17:57 jasonzhangxianrong 阅读(239) 评论(0) 推荐(0) 编辑
摘要: 一、策略迭代 import copy class CliffWalkingEnv: """ 悬崖漫步环境""" def __init__(self, ncol=12, nrow=4): self.ncol = ncol # 定义网格世界的列 self.nrow = nrow # 定义网格世界的行 # 阅读全文
posted @ 2024-03-03 16:05 jasonzhangxianrong 阅读(143) 评论(0) 推荐(0) 编辑
上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 35 下一页