上一页 1 ··· 3 4 5 6 7 8 9 10 下一页
摘要: 【转】一套图 搞懂“时间复杂度” https://blog.csdn.net/qq_41523096/article/details/82142747 阅读全文
posted @ 2020-09-16 22:42 rin_riceroll 阅读(127) 评论(0) 推荐(0) 编辑
摘要: 二叉树的相关概念 树高度,节点层数,节点度数,路径,叶节点,分支节点,根节点,父节点,左节点,右节点,兄弟节点,祖先节点,子孙节点,左子树,右子树 ①结点:包含一个数据元素及若干指向子树分支的信息 ②结点的度:一个结点拥有子树的数目称为结点的度 ③叶子结点:也称为终端结点,没有子树的结点或者度为零的 阅读全文
posted @ 2020-09-16 22:41 rin_riceroll 阅读(169) 评论(0) 推荐(0) 编辑
摘要: 神经网络中偏置的作用 偏置值允许将激活函数向左或向右移位,更好的拟合数据! 图解: https://blog.csdn.net/mmww1994/article/details/81705991 阅读全文
posted @ 2020-09-16 20:38 rin_riceroll 阅读(234) 评论(0) 推荐(0) 编辑
摘要: 找到的写的很干净仔细,能跟着推下来的推导 http://www.wglite.com/post/bp 最简单的三层神经网络 损失函数:交叉熵 激活函数分别为sigmoid和softmax 没有偏置 阅读全文
posted @ 2020-09-16 20:36 rin_riceroll 阅读(409) 评论(0) 推荐(0) 编辑
摘要: 找到两篇比较好,能跟着推导下来的文章: SoftMax函数,交叉熵损失函数与熵,对数似然函数 https://blog.csdn.net/qq_38469553/article/details/83860335 损失函数 - 交叉熵损失函数 https://zhuanlan.zhihu.com/p/ 阅读全文
posted @ 2020-09-09 22:18 rin_riceroll 阅读(295) 评论(0) 推荐(0) 编辑
摘要: 有个学习率的东西,学习率取个0.5。关于学习率,不能过高也不能过低。因为训练神经网络系统的过程,就是通过不断的迭代,找到让系统输出误差最小的参数的过程。每一次迭代都经过反向传播进行梯度下降,然而误差空间不是一个滑梯,一降到底,常规情况下就像坑洼的山地。学习率太小,那就很容易陷入局部最优,就是你认为的 阅读全文
posted @ 2020-09-09 22:16 rin_riceroll 阅读(238) 评论(0) 推荐(0) 编辑
摘要: 参考:https://zhuanlan.zhihu.com/p/35709485 交叉熵损失函数经常用于分类问题中,特别是在神经网络做分类问题时,也经常使用交叉熵作为损失函数,此外,由于交叉熵涉及到计算每个类别的概率,所以交叉熵几乎每次都和sigmoid(或softmax)函数一起出现。 交叉熵损失 阅读全文
posted @ 2020-09-09 22:12 rin_riceroll 阅读(692) 评论(0) 推荐(0) 编辑
摘要: 转载自:https://www.cnblogs.com/zhibei/p/12070046.html 参考:https://baijiahao.baidu.com/s?id=1636737136973859154&wfr=spider&for=pc sigmoid = 多标签分类问题=多个正确答案= 阅读全文
posted @ 2020-09-09 21:59 rin_riceroll 阅读(314) 评论(0) 推荐(0) 编辑
摘要: ReLU比Sigmoid效果好的理由: https://blog.csdn.net/ljyljyok/article/details/88394212 Relu的gradient大多数情况下是常数,有助于解决深层网络的收敛问题。Relu的另一个优势是在生物上的合理性,它是单边的,相比sigmoid和 阅读全文
posted @ 2020-08-11 18:07 rin_riceroll 阅读(665) 评论(0) 推荐(0) 编辑
摘要: 1.自编码器 2.contractive auto-encoder CAE(收缩自编码器) 1.自编码器 内容来源: https://www.cnblogs.com/klausage/p/12582421.html https://www.baidu.com/link?url=uWT564giDq1 阅读全文
posted @ 2020-08-06 20:43 rin_riceroll 阅读(756) 评论(0) 推荐(0) 编辑
上一页 1 ··· 3 4 5 6 7 8 9 10 下一页