从神经网络到深度学习

 

 

 

 

监督学习:标注数据
半监督学习:标注数据和未标注数据
无监督学习:未标注学习
监督学习的性能最可靠,用于企业

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

通常层间神经元不相通

 

 

 

 

损失函数:每次都找下山最快的方向(梯度下降法)依赖于网络初始值

 

 

 

 

 

 

 

 

 

 

 

神经网络的缺点:
局部最优:下山不一定到最低点
梯度弥散:如:1 0.5 0.25 0.125(接近0)梯度为0时网络更新不动了。层数过多,梯度越来越小
参数量呈现指数级增加
尤其后两种,会造成层数过多无法训练

 

 

 

 

 

 

 

欠拟合:模型不够复杂,把模型的参数量增加或训练时间更长一些。
Dropout:每次更新网络时,随机不更新一部分神经元,防止把答案记住
正则化:对模型复杂度进行约束,不要太复杂
数据增广:把一个数据变为多个,一张图变为多个。增加训练数据量

 

 

 

深度学习
为什么要深度?层数越多,表达能力越强
卷积是对特征的提取

 

 

 

 

 

 

全连接数据量太大,不长远
感受野:一个神经元所关注的区域,

 

 

 

 

 

Max Pooling :只取该区域的最大值作为区域的值
Mean Pooling :平均池化,对该区域取平均值作为区域的值
这两个比较常用

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

反卷积变大

 

 

 

 

随机让一部分神经元坏死,产生误差,由于每次都随机,那么最后所有神经元都能被更新

 

 

Flatten :展平
Dense:全连接

 

 

越到高层越一致(稀疏)

 

 

深度学习框架
Keras 适合新手,Caffe 工业性能高
Pytorch  科研,灵活

 

 

Static :运行流程定义好的,一般是一个输入进去,一个输出出来。 不知道中间的运算过程。但是稳定,适合做产品
Dynamic :运行中每一步都可随时暂停,都是动态的。出现问题每步都可以调试,适合科研

 

 

 

 

 

posted on 2019-11-20 19:31  cltt  阅读(312)  评论(0编辑  收藏  举报

导航