上一页 1 ··· 73 74 75 76 77 78 79 80 81 ··· 99 下一页
摘要: 深度在神经网络中有及其重要的作用,但越深的网络越难训练。 随着深度的增加,从训练一开始,梯度消失或梯度爆炸就会阻止收敛,normalized initialization和intermediate normalization能够解决这个问题。但依旧会出现degradation problem:随着深 阅读全文
posted @ 2017-04-11 16:21 有梦就要去实现他 阅读(2547) 评论(0) 推荐(0) 编辑
摘要: 从LeNet-5开始,cnn就有了标准的结构:stacked convolutional layers are followed by one or more fully-connected layers。对于Imagenet这种大的数据集,趋势是增加层数和层的大小,用dropout解决过拟合。 1 阅读全文
posted @ 2017-04-11 11:43 有梦就要去实现他 阅读(527) 评论(0) 推荐(0) 编辑
摘要: 1.深度学习本质就是找一个函数能够拟合某一个的问题。 2.如果没有非线性的激活函数,整个函数就只有线性,也就是说你只能去线性地分类问题,但很多问题都不是线性可分的。 3.人脑神经元的连接是稀疏的,因此研究者认为大型神经网络的合理的连接方式应该也是稀疏的。稀疏结构是非常适合神经网络的一种结构,尤其是对 阅读全文
posted @ 2017-04-06 17:47 有梦就要去实现他 阅读(209) 评论(0) 推荐(0) 编辑
摘要: 如果不用激励函数(其实相当于激励函数是f(x) = x),在这种情况下你每一层输出都是上层输入的线性函数,很容易验证,无论你神经网络有多少层,输出都是输入的线性组合,与没有隐藏层效果相当,这种情况就是最原始的感知机(Perceptron)了。正因为上面的原因,我们决定引入非线性函数作为激励函数,这样 阅读全文
posted @ 2017-04-06 17:24 有梦就要去实现他 阅读(1098) 评论(0) 推荐(0) 编辑
摘要: 错误代码: 正确代码: 正确代码只是比错误代码在reverse函数中增加了一个参数引用 错误代码使用的reverse函数并不能改变str这个实参,导致后面的翻转出错。增加参数引用后就能对参数str进行改变。 阅读全文
posted @ 2017-04-06 16:54 有梦就要去实现他 阅读(181) 评论(0) 推荐(0) 编辑
摘要: 删除~/.config目录下的SougouPY SogouPY.users sogou-qimpanel文件夹,然后重启搜狗输入法即可 阅读全文
posted @ 2017-04-05 14:03 有梦就要去实现他 阅读(406) 评论(0) 推荐(0) 编辑
摘要: #include<string> string s1 = "abcdefg"; string s2("abcdefg"); 阅读全文
posted @ 2017-04-01 18:20 有梦就要去实现他 阅读(979) 评论(0) 推荐(0) 编辑
摘要: c++中单引号表示一个字符,双引号表示字符串 python中单引号与双引号是一样的 阅读全文
posted @ 2017-04-01 12:37 有梦就要去实现他 阅读(1632) 评论(0) 推荐(0) 编辑
摘要: 1.if和else if后面并没有要求一定要接else(即以else来结尾),可以直接if语句然后接其他语句,也可以if语句之后加else if语句再接其他语句 阅读全文
posted @ 2017-03-31 10:58 有梦就要去实现他 阅读(128) 评论(0) 推荐(0) 编辑
摘要: 没有把队列的头部弹出,出现内存错误: 阅读全文
posted @ 2017-03-30 21:58 有梦就要去实现他 阅读(95) 评论(0) 推荐(0) 编辑
上一页 1 ··· 73 74 75 76 77 78 79 80 81 ··· 99 下一页