10 2020 档案

摘要:目录 Eager模式(Eager Mode) 使用pytorch Episode Traces 日志冗长(Log Verbosity) 栈追踪(Stack Traces) 外部应用API(External Application API) 参考资料 性能问题非常有用。 Eager模式(Eager M 阅读全文
posted @ 2020-10-07 13:37 黎明程序员 阅读(887) 评论(0) 推荐(0) 编辑
摘要:目录 定制训练流程(Custom Training Workflows) 全局协调(Global Coordination) 回调函数和自定义准则(Callbacks and Custom Metrics) 可视化自定义的度量(Visualizing Custom Metrics) 自定义探索行为( 阅读全文
posted @ 2020-10-06 17:29 黎明程序员 阅读(1359) 评论(0) 推荐(0) 编辑
摘要:目录 基础pythonAPI概览 计算动作(Computing Actions) 获取策略状态(Accessing Policy State) 获取模型状态(Accessing Model State) 例子:预处理喂给model的观测值 例子:查询一个policy的动作分布 例子:从DQN模型中获 阅读全文
posted @ 2020-10-04 22:22 黎明程序员 阅读(1729) 评论(0) 推荐(0) 编辑
摘要:目录 开场(Getting Started) 评估训练策略(Evaluating Trained Policies) 指定参数(Specifying Parameters) 指定资源(Specifying Resources) 延伸指南(Scaling Guide) 常用参数 调好的参数文件(Tun 阅读全文
posted @ 2020-10-03 22:40 黎明程序员 阅读(3826) 评论(0) 推荐(0) 编辑
摘要:目录 什么是Ray 什么是RLlib 简单的代码风格 Policies Sample Batches Training Application Support Customization 参考资料 什么是Ray Ray是一个用于构建和运行分布式应用程序的快速而简单的框架。 Ray通过以下方式完成这一 阅读全文
posted @ 2020-10-02 11:22 黎明程序员 阅读(7403) 评论(0) 推荐(0) 编辑
摘要:目录 A3C原理 源码实现 参考资料 针对A2C的训练慢的问题,DeepMind团队于2016年提出了多进程版本的A2C,即A3C。 A3C原理 同时开多个worker,最后会把所有的经验集合在一起 一开始有一个全局的网络,假设参数是θ1 每一个worker使用一个cpu去跑,工作之前就把全局的参数 阅读全文
posted @ 2020-10-01 22:23 黎明程序员 阅读(938) 评论(0) 推荐(0) 编辑
摘要:目录 Policy-based框架的缺点 Valued-based框架的缺点 Actor-Critic结合 算法流程 向Policy Gradient中加入baseline Q网络和V网络的定义 A2C (Advantage Actor-Critic) A2C损失函数的构建 源码实现 参考资料 在强 阅读全文
posted @ 2020-10-01 17:30 黎明程序员 阅读(3544) 评论(1) 推荐(0) 编辑

点击右上角即可分享
微信分享提示