摘要:
Installing with Virtualenv Install pip and Virtualenv by issuing one of the following commands: Create a Virtualenv environment by issuing one of the 阅读全文
摘要:
1、找出并杀掉所有 apt-get 或者 apt 进程 运行下面的命令来生成所有含有 apt 的进程列表,你可以使用 ps 和 grep 命令并用管道组合来得到含有 apt 或者 apt-get 的进程。 你可以看到上面命令输出的每个 apt-get 或者 apt 进程,使用下面的命令杀掉每个进程。 阅读全文
摘要:
1.loss 是什么 2. Q-Table的更新问题变成一个函数拟合问题,相近的状态得到相近的输出动作。如下式,通过更新参数 θθ 使Q函数逼近最优Q值 深度神经网络可以自动提取复杂特征,因此,面对高维且连续的状态使用深度神经网络最合适不过了。 DRL是将深度学习(DL)与强化学习(RL)结合,直接 阅读全文
摘要:
1.http://www.runoob.com/python/python-func-all.html python all()函数的用法。 总结:检查是否有空或零元素。 2.numpy.reshap 把矩阵变形。arange(6).reshape((3, 2)) >>> a array([[0, 阅读全文
摘要:
5.3 封装性 • 为了解决属性必须封装且又必须访问的矛盾,只要是被封装的属性,必须通过setter和getter方法设置和取得。 • 为前面类的私有属性加上getter和setter方法 setter方法可以加上检测代码检测输入的数据是否合法。 5.4构造方法 • 构造方法也是可以重载的。只要每个 阅读全文
摘要:
生成数据这都没看懂。 建立数据集 我们创建一些假数据来模拟真实的情况. 比如两个二次分布的数据, 不过他们的均值都不一样. 建立神经网络 建立一个神经网络我们可以直接运用 torch 中的体系. 先定义所有的层属性(__init__()), 然后再一层层搭建(forward(x))层于层的关系链接. 阅读全文
摘要:
unsqueeze 一维变二维 建立数据集 我们创建一些假数据来模拟真实的情况. 比如一个一元二次函数: y = a * x^2 + b, 我们给 y 数据加上一点噪声来更加真实的展示它. 建立神经网络 建立一个神经网络我们可以直接运用 torch 中的体系. 先定义所有的层属性(__init__( 阅读全文
摘要:
softplus是有关概率的巴拉巴拉? Torch 中的激励函数有很多, 不过我们平时要用到的就这几个. relu, sigmoid, tanh, softplus. 那我们就看看他们各自长什么样啦. 接着就是做生成不同的激励函数数据: 阅读全文
摘要:
relu sigmoid tanh 激励函数。 可以创立自己的激励函数解决自己的问题,只要保证这些激励函数是可以微分的。 只有两三层的神经网络,随便使用哪个激励函数都可以。 多层的不能随便选择,涉及梯度爆炸,梯度消失的问题。 卷积神经网络推荐relu 循环神经网络推荐tanh或者relu 阅读全文
摘要:
Tensor不能反向传播。 variable可以反向传播。 什么是 Variable Variable 计算, 梯度 到目前为止, 我们看不出什么不同, 但是时刻记住, Variable 计算时, 它在背景幕布后面一步步默默地搭建着一个庞大的系统, 叫做计算图, computational grap 阅读全文