摘要: 以后不更新了 之前说的开源,发在这里,作为告别! https://github.com/hhh5460/lotto-v2.0 再见了,博客园的各位大大! 南无阿弥陀佛! Good bye, world! 阅读全文
posted @ 2019-01-28 17:42 罗兵 阅读(1064) 评论(6) 推荐(0) 编辑
摘要: 以后不更新了,把以前的一些东西发出来。 这是一个命令行环境的五子棋程序。使用了minimax算法。 除了百度各个棋型的打分方式,所有代码皆为本人所撸。本程序结构与之前的井字棋、黑白棋一模一样。 有一点小问题,没时间弄了,就这样吧。 一、效果图 (略) 二、完整代码 阅读全文
posted @ 2019-01-28 17:35 罗兵 阅读(3894) 评论(0) 推荐(0) 编辑
摘要: 〇、知识点 jquery ajax 文档 告诉你可以使用默认的 application/x-www-form-urlencoded, multipart/form-data, or text/plain 这三种,其它的也可以,但是需要告诉ajax 的怎样序列化它。——这句话来源于:https://w 阅读全文
posted @ 2019-01-06 12:53 罗兵 阅读(1972) 评论(1) 推荐(0) 编辑
摘要: 代码 效果图 结论 只测试了mod 2的情况,效果不好. 训练数据精度可以达到三分之二左右,测试数据的精度只有四分之一。头脑风暴,几乎可以反其道而行之!可能不失为可行之策。 下一步: 1.画出后20个数据k线图,看是否是震荡区间,亦或是趋势区间 2.换别的指标看看 阅读全文
posted @ 2019-01-03 21:15 罗兵 阅读(12003) 评论(1) 推荐(0) 编辑
摘要: keras构造神经网络,非常之方便!以后就它了。本文给出了三个例子,都是普通的神经网络 例一、离散输出,单标签、多分类 例二、图像识别,单标签、多分类。没有用到卷积神经网络(CNN) 例三、时序预测,单标签、多分类。(LSTM) 说明 keras对于神经网络给出的流程图,非常容易理解。 图片来源:h 阅读全文
posted @ 2018-12-29 12:42 罗兵 阅读(14630) 评论(0) 推荐(0) 编辑
摘要: 本文作者:hhh5460 本文地址:https://www.cnblogs.com/hhh5460/p/10159331.html 特别感谢:本文的三幅图皆来自莫凡的教程 https://morvanzhou.github.io/ pandas是基于numpy的,但是两者之间的操作有区别,故在实现上 阅读全文
posted @ 2018-12-21 22:31 罗兵 阅读(1521) 评论(0) 推荐(0) 编辑
摘要: 原文地址:https://blog.csdn.net/qq_30615903/article/details/80744083 <!-- flowchart 箭头图标 勿删 --> DQN(Deep Q-Learning)是将深度学习deeplearning与强化学习reinforcementlea 阅读全文
posted @ 2018-12-21 12:41 罗兵 阅读(18783) 评论(0) 推荐(1) 编辑
摘要: 原文地址:https://www.hhyz.me/2018/08/13/2018-08-13-RL2/ 强化学习(RL,基于MDP)的求解policy的方式一般分为三种: Value <—critic Policy <—actor Value + Policy <— Actor-critic 策略梯 阅读全文
posted @ 2018-12-21 11:53 罗兵 阅读(820) 评论(0) 推荐(0) 编辑
摘要: 原文地址:https://www.hhyz.me/2018/08/05/2018-08-05-RL/ 1. 前言 虽然将深度学习和增强学习结合的想法在几年前就有人尝试,但真正成功的开端就是DeepMind在NIPS 2013上发表的 Playing Atari with Deep Reinforce 阅读全文
posted @ 2018-12-21 11:40 罗兵 阅读(3201) 评论(0) 推荐(1) 编辑
摘要: 原文地址:https://www.hhyz.me/2018/08/08/2018-08-08-AlphaGO-Zero/> 1. 概述 简单来说,AlphaGo Zero 的训练可以分为三个同时进行的阶段: 自我对战 再训练网络 评估网络 在自我对战阶段, AlphaGo Zero 创建一个训练集合 阅读全文
posted @ 2018-12-21 11:29 罗兵 阅读(3856) 评论(0) 推荐(1) 编辑