摘要: (4)Leaky ReLU ReLU是将所有的负值设置为0,造成神经元节点死亡的情况。相反,Leaky ReLU是给所有负值赋予一个非零的斜率。 优点: (1)神经元不会出现死亡的情况。 (2)对于所有的输入,不管是大于等于0还是小于0,神经元不会饱和 (3)由于Leaky ReLU线性、非饱和的形 阅读全文
posted @ 2020-02-20 20:46 我们都是大好青年 阅读(496) 评论(0) 推荐(0) 编辑
摘要: sigmoid和tanh是“饱和激活函数”,而ReLU及其变体则是“非饱和激活函数”。使用“非饱和激活函数”的优势在于两点:(1)“非饱和激活函数”能解决所谓的“梯度消失”问题。(2)能加快收敛速度。 sigmoid将实值输出压缩在[0,1]范围内;tanh函数将实值输出压缩在[-1, 1]的范围。 阅读全文
posted @ 2020-02-20 20:37 我们都是大好青年 阅读(1602) 评论(0) 推荐(0) 编辑
摘要: 用户名没写造成的拒绝! 阅读全文
posted @ 2020-02-20 19:32 我们都是大好青年 阅读(237) 评论(0) 推荐(0) 编辑
摘要: 如何遍历一副图像?简单的方法就是写一个双层循环,增量分别为行和列,如下所示: Mat img = Mat(rows, cols, CV_8UC3,Scalar(0)); for(int i = 0;i < rows; i++) { for(int j = 0; j < cols; j++) { im 阅读全文
posted @ 2020-02-20 18:38 我们都是大好青年 阅读(412) 评论(0) 推荐(0) 编辑
摘要: 记录一下,方便复习 总结: 参考:https://blog.csdn.net/lcczzu/article/details/88873854//交叉熵损失函数的作用及公式推导 阅读全文
posted @ 2020-02-20 07:54 我们都是大好青年 阅读(1162) 评论(0) 推荐(0) 编辑