记录一下关于DQN的想法
下载了几份代码,就两份没有报错通过了
DQN玩FlappyBird
https://github.com/yenchenlin/DeepLearningFlappyBird
DQN玩Cartpole
https://www.cnblogs.com/caorui/p/6431156.html
https://blog.csdn.net/xiewenbo/article/details/84959579
思路主要是这样的,像玩小鸟的就是通过障碍物能继续走,reward 1和-100, action也是1和0,玩平衡车是能立住就reward是1,立的时间长评分高,并不是真的用reward来衡量分数
target是神经网络的期望值
电脑gym包中平衡车位置:D:\virtualenv\venv\env37\gym\envs\classic_control\cartpole.py
keras中文文档:https://keras-cn.readthedocs.io/en/latest/
batch_saze的解释:一次喂多少个数据给神经网络 http://www.360doc.com/content/17/0809/15/42392246_677820641.shtml
这篇系列有点意思,是从安装开始解说强化学习:https://blog.csdn.net/u012465304/article/details/80888684
知乎专栏关于DQN:https://zhuanlan.zhihu.com/intelligentunit
1 https://zhuanlan.zhihu.com/p/21262246
2 https://zhuanlan.zhihu.com/p/21292697
3 https://zhuanlan.zhihu.com/p/21340755
4 https://zhuanlan.zhihu.com/p/21378532
5 https://zhuanlan.zhihu.com/p/21421729
6 https://zhuanlan.zhihu.com/p/21547911
7 https://zhuanlan.zhihu.com/p/21609472