[DeeplearningAI笔记]卷积神经网络1.9-1.11池化层/卷积神经网络示例/优点
4.1卷积神经网络
1.9池化层
优点
- 池化层可以缩减模型的大小,提高计算速度,同时提高所提取特征的鲁棒性。
池化层操作
- 池化操作与卷积操作类似,但是池化操作是保留池化窗口在扫过原始图像中时的最大值。注意:每个信道都在其单独的信道中执行池化操作。
其维度公式也满足公式:
其中n为原始图像大小,p为Padding填充维度,f为卷积核大小,s为步长
- 平均池化层较最大池化层不那么常用,其特点是选取其扫过的原始图片中池化窗口中的平均值而不是最大值。
- 池化的超参数有:filter size池化窗口大小,stride池化步长,其中filter size 通常选取2,stride池化步长也选择为2
- 池化层很少使用到Padding
1.10卷积神经网络示例
- 此例中卷积层和池化层的组合被称为一个Layer。也有几个卷积层后跟一个池化层的情况,也是很常见的。
- 找到合适自己的超参数的好方法是大量阅读同类型的别人的论文中提出的结构和方法,使用与其近似的超参数解决问题。
1.11为什么使用卷积
- 卷积层相对于普通全连接神经网络最终要的两个特点是:参数共享(parameter sharing)和稀疏连接(sparsity of connections)
卷积层和全连接层参数比较
- 对于一个的3通道图片来说,使用6个的卷积核进行卷积操作,得到的是的6通道图片。假设使用全连接神经网络,第一层会有个神经元,而得到的图片需要用个神经元进行表示。则需要的参数数量为.但是使用卷积神经网络只需要=156个参数。
参数共享(parameter sharing)
- 卷积核用以表示学习到的特征,所扫过的区域共用一个卷积核。
稀疏连接(sparsity of connections)
- 稀疏连接(sparsity of connections)表示得到的特征图中的节点只与原始图片中的特定节点相连接。与其余节点的取值无关。
- 更少的参数可以有效的防止过拟合。
标签:
深度学习
, DeeplearningAI
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· winform 绘制太阳,地球,月球 运作规律
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)