从神经网络到深度学习

 

 

 

 

监督学习:标注数据
半监督学习:标注数据和未标注数据
无监督学习:未标注学习
监督学习的性能最可靠,用于企业

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

通常层间神经元不相通

 

 

 

 

损失函数:每次都找下山最快的方向(梯度下降法)依赖于网络初始值

 

 

 

 

 

 

 

 

 

 

 

神经网络的缺点:
局部最优:下山不一定到最低点
梯度弥散:如:1 0.5 0.25 0.125(接近0)梯度为0时网络更新不动了。层数过多,梯度越来越小
参数量呈现指数级增加
尤其后两种,会造成层数过多无法训练

 

 

 

 

 

 

 

欠拟合:模型不够复杂,把模型的参数量增加或训练时间更长一些。
Dropout:每次更新网络时,随机不更新一部分神经元,防止把答案记住
正则化:对模型复杂度进行约束,不要太复杂
数据增广:把一个数据变为多个,一张图变为多个。增加训练数据量

 

 

 

深度学习
为什么要深度?层数越多,表达能力越强
卷积是对特征的提取

 

 

 

 

 

 

全连接数据量太大,不长远
感受野:一个神经元所关注的区域,

 

 

 

 

 

Max Pooling :只取该区域的最大值作为区域的值
Mean Pooling :平均池化,对该区域取平均值作为区域的值
这两个比较常用

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

反卷积变大

 

 

 

 

随机让一部分神经元坏死,产生误差,由于每次都随机,那么最后所有神经元都能被更新

 

 

Flatten :展平
Dense:全连接

 

 

越到高层越一致(稀疏)

 

 

深度学习框架
Keras 适合新手,Caffe 工业性能高
Pytorch  科研,灵活

 

 

Static :运行流程定义好的,一般是一个输入进去,一个输出出来。 不知道中间的运算过程。但是稳定,适合做产品
Dynamic :运行中每一步都可随时暂停,都是动态的。出现问题每步都可以调试,适合科研

 

 

 

 

 

posted on   cltt  阅读(319)  评论(0编辑  收藏  举报

编辑推荐:
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
阅读排行:
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· ollama系列01:轻松3步本地部署deepseek,普通电脑可用
· 25岁的心里话
· 按钮权限的设计及实现
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

导航

统计

点击右上角即可分享
微信分享提示