上一页 1 ··· 19 20 21 22 23 24 25 26 27 ··· 43 下一页
摘要: BGD(batch gradient descent) 遍历完所有数据,计算一次损失函数,更新一次梯度。 计算量大,速度慢,不支持在线学习。 SGD(stochastic gradient descent) 看一个数据,就计算一次损失函数,更新一次梯度。 速度快,收敛性能不太好,可能在最优点附近震荡 阅读全文
posted @ 2019-06-28 17:01 Austin_anheqiao 阅读(201) 评论(0) 推荐(0) 编辑
摘要: 对于同一个损失函数值,可以对应很多种不同的参数,甚至在高纬度下,极小值和极大值都很接近,所以即使是很好优化过的模型,也可能会对应多个不同的参数组合,很多组合都未必是数值稳定的。而且因为参数的安慰更自由,可以得到很小的训练误差,往往都不具有很好的泛化能力。 这个时候加入一个约束项,这个约束项计算之后, 阅读全文
posted @ 2019-06-28 16:36 Austin_anheqiao 阅读(404) 评论(0) 推荐(0) 编辑
摘要: 思想: 使用队的思想,将每一层的节点放入队列中,依次弹出,同时将其children放入队列。 c++ 或者:(做了一些小改动) 阅读全文
posted @ 2019-06-28 15:32 Austin_anheqiao 阅读(925) 评论(0) 推荐(0) 编辑
摘要: 一个新的激活函数——Relu Relu函数作为激活函数,有下面几大优势: 速度快 和sigmoid函数需要计算指数和倒数相比,relu函数其实就是一个max(0,x),计算代价小很多。 减轻梯度消失问题 稀疏性。有论文声称人工神经网络在15%-30%的激活率时是比较理想的。因为relu函数在输入小于 阅读全文
posted @ 2019-06-27 16:48 Austin_anheqiao 阅读(196) 评论(0) 推荐(0) 编辑
摘要: sigmoid函数 神经网络激活函数是sigmoid函数。 定义为: sigmoid函数是一个非线性函数,值域是(0,1)。函数图像如下图所示: sigmoid导数: 可以看得出sigmoid导数计算很方便。 则 神经网络 神经网络其实就是按照一定规则连接起来的多个神经元。 神经网络实际上就是一个输 阅读全文
posted @ 2019-06-27 16:42 Austin_anheqiao 阅读(988) 评论(0) 推荐(1) 编辑
摘要: 当面对的数据集不是线性可分的时候,『感知器规则』可能无法收敛,这意味着我们永远也无法完成一个感知器的训练。 为了解决这个问题,我们使用一个可导的线性函数来替代感知器的阶跃函数,这种感知器就叫做线性单元。线性单元在面对线性不可分的数据集时,会收敛到一个最佳的近似上。 线性单元将返回一个实数值而不是0, 阅读全文
posted @ 2019-06-27 10:28 Austin_anheqiao 阅读(467) 评论(0) 推荐(0) 编辑
摘要: 神经网络能够拟合任何函数。 而神经网络的基本组成单元——神经元,也就是感知器。 感知器组成部分: 输入权值,偏置 激活函数:阶跃函数 输出 感知器作用: 布尔运算 拟合任何线性函数(线性分类、线性回归) 不能实现异或 感知器的训练 输入: 权值:每个输入都有一个权值 偏置:最后加一个偏置 输出公式: 阅读全文
posted @ 2019-06-27 09:46 Austin_anheqiao 阅读(1350) 评论(0) 推荐(1) 编辑
摘要: python c++ 自己修改了一点点 阅读全文
posted @ 2019-06-25 19:59 Austin_anheqiao 阅读(249) 评论(0) 推荐(0) 编辑
摘要: 方法一:哈希表 我们可以通过检查一个结点此前是否被访问过来判断链表是否为环形链表。常用的方法是使用哈希表。 时间复杂度:O(n)O(n),对于含有 nn 个元素的链表,我们访问每个元素最多一次。添加一个结点到哈希表中只需要花费 O(1)O(1) 的时间。 空间复杂度:O(n)O(n),空间取决于添加 阅读全文
posted @ 2019-06-25 15:34 Austin_anheqiao 阅读(410) 评论(0) 推荐(0) 编辑
摘要: c++ 链表头到环入口长度为--a 环入口到相遇点长度为--b 相遇点到环入口长度为--c 相遇时 快指针路程=a+(b+c)k+b ,k>=1 其中b+c为环的长度,k为绕环的圈数(k>=1,即最少一圈,不能是0圈,不然和慢指针走的一样长,矛盾)。 慢指针路程=a+b 快指针走的路程是慢指针的两倍 阅读全文
posted @ 2019-06-24 18:51 Austin_anheqiao 阅读(118) 评论(0) 推荐(0) 编辑
上一页 1 ··· 19 20 21 22 23 24 25 26 27 ··· 43 下一页