今天开始连载强化学习,这个是以前看Reinforcement Learning: An Introduction 这本书做的笔记,最近发现Richard S. Sutton 和 Andrew G. Barto还在为本书更新,所以就想着把原来的笔记也更新一下,整理然后放在这里。
因为是笔记形式,所以这里的货是非常的干的。都是把自己认为重要的东西记了下来,当然也许会有太过骨感的意味。 但因为本次的定位不是给从不知道的人看的,而是给那些至少知道这本书的人一起交流的。
今天是引入,所以也就是几个概念。
Introduction
强化学习是学习如何最大化奖励。
强化学习一直需要面对一个问题,即是权衡exploration(开发) 与exploitation(探索)。
强化学习的一大特点是agent与不确定环境的互动。
Elements of Reinforcement Learning
Policy: 是学习agent在任何时刻的行为方式,是一个从当前环境状态到动作空间的映射。策略是强化学习的核心,强化学习可理解为如何做决策从而获得最大奖励,因此,策略即为最重要的部分,策略可以是一个简单的映射函数,也可能是一个‘状态形为’表格。另外,策略也可能是随机的形式,即在某一状态下,只给出每个形为的概率。
Reward: 强化学习的目标。在强化学习中,agent的目标就是最大化它能获得的所有reward。单个reward只是处于某一状态的即时感觉,那长远来看,即agent可能获得的所有reward,用value function来度量。
Value of a state: 是agent从当前状态算起,未来能获得的所有的reward总和。
Model of a environment: 是所有可用于推断环境如何反应的信息。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 地球OL攻略 —— 某应届生求职总结
· 提示词工程——AI应用必不可少的技术
· Open-Sora 2.0 重磅开源!
· 周边上新:园子的第一款马克杯温暖上架