摘要:
生成数据这都没看懂。 建立数据集 我们创建一些假数据来模拟真实的情况. 比如两个二次分布的数据, 不过他们的均值都不一样. 建立神经网络 建立一个神经网络我们可以直接运用 torch 中的体系. 先定义所有的层属性(__init__()), 然后再一层层搭建(forward(x))层于层的关系链接. 阅读全文
摘要:
unsqueeze 一维变二维 建立数据集 我们创建一些假数据来模拟真实的情况. 比如一个一元二次函数: y = a * x^2 + b, 我们给 y 数据加上一点噪声来更加真实的展示它. 建立神经网络 建立一个神经网络我们可以直接运用 torch 中的体系. 先定义所有的层属性(__init__( 阅读全文
摘要:
softplus是有关概率的巴拉巴拉? Torch 中的激励函数有很多, 不过我们平时要用到的就这几个. relu, sigmoid, tanh, softplus. 那我们就看看他们各自长什么样啦. 接着就是做生成不同的激励函数数据: 阅读全文
摘要:
relu sigmoid tanh 激励函数。 可以创立自己的激励函数解决自己的问题,只要保证这些激励函数是可以微分的。 只有两三层的神经网络,随便使用哪个激励函数都可以。 多层的不能随便选择,涉及梯度爆炸,梯度消失的问题。 卷积神经网络推荐relu 循环神经网络推荐tanh或者relu 阅读全文
摘要:
Tensor不能反向传播。 variable可以反向传播。 什么是 Variable Variable 计算, 梯度 到目前为止, 我们看不出什么不同, 但是时刻记住, Variable 计算时, 它在背景幕布后面一步步默默地搭建着一个庞大的系统, 叫做计算图, computational grap 阅读全文
摘要:
黄色:重点 粉色:不懂 Torch 中的数学运算 其实 torch 中 tensor 的运算和 numpy array 的如出一辙, 我们就以对比的形式来看. 如果想了解 torch 中其它更多有用的运算符, API就是你要去的地方. 除了简单的计算, 矩阵运算才是神经网络中最重要的部分. 所以我们 阅读全文
摘要:
当 cost对w的梯度最小(斜率最小)时,误差最小。 我们从图中可以看出, Cost 误差最小的时候正是这条 cost 曲线最低的地方, 不过在蓝点的 W 却不知道这件事情, 他目前所知道的就是梯度线为自己在这个位置指出的一个下降方向, 我们就要朝着这个蓝色梯度的方向下降一点点. 在做一条切线, 发 阅读全文
摘要:
可以看作是再一次将传过来的信号传回去, 看看这个负责传递信号神经元对于”讨糖”的动作到底有没有贡献, 让它好好反思与改正, 争取下次做出更好的贡献. 人工神经网络靠的是正向和反向传播来更新神经元, 从而形成一个好的神经系统, 本质上, 这是一个能让计算机处理和优化的数学模型. 而生物神经网络是通过刺 阅读全文
摘要:
pytorch比tenserflow简单。 所以我们模仿用tensorflow写的强化学习。 学习资料: 本节的全部代码 Tensorflow 的 100行 DQN 代码 我制作的 DQN 动画简介 我的 DQN Tensorflow 教程 我的 强化学习 教程 PyTorch 官网 论文 Play 阅读全文
摘要:
粉红色:不会。 黄色:重点。 1.为什么要使用神经网络 我们使用表格来存储每一个状态 state, 和在这个 state 每个行为 action 所拥有的 Q 值. 而当今问题是在太复杂, 状态可以多到比天上的星星还多(比如下围棋). 如果全用表格来存储它们, 恐怕我们的计算机有再大的内存都不够, 阅读全文
摘要:
研究JD,照着问 具体到工作流程如何 每天做那些事 每个小时怎么安排 出差多不多 一般会上讨论什么事情 工作工具和方法上都有哪些 怎么使用这些工具和方法 阅读全文