上一页 1 2 3 4 5 6 7 8 9 ··· 22 下一页
摘要: NiN块 回想一下,卷积层的输入和输出由四维张量组成,张量的每个轴分别对应样本、通道、高度和宽度。 另外,全连接层的输入和输出通常是分别对应于样本和特征的二维张量。 NiN的想法是在每个像素位置(针对每个高度和宽度)应用一个全连接层。 如果我们将权重连接到每个空间位置,我们可以将其视为1*1卷积层, 阅读全文
posted @ 2023-11-08 16:38 Yohoc 阅读(15) 评论(0) 推荐(0) 编辑
摘要: VGG块 虽然AlexNet证明深层神经网络卓有成效,但它没有提供一个通用的模板(例如VGG块)来指导后续的研究人员设计新的网络。 在下面的几个章节中,我们将介绍一些常用于设计深层神经网络的启发式概念。 经典卷积神经网络的基本组成部分是下面的这个序列: 带填充以保持分辨率的卷积层; 非线性激活函数, 阅读全文
posted @ 2023-11-08 16:02 Yohoc 阅读(24) 评论(0) 推荐(0) 编辑
摘要: AlexNet相对于LeNet的主要优势包括: 1. 更深的网络结构 AlexNet有8层结构,而LeNet只有5层。网络更加深入有利于学习更抽象的高级特征。 2. 使用ReLU激活函数 AlexNet使用ReLU激活函数,避免梯度消失问题,使得深层网络的训练更加容易。 3. 引入Dropout操作 阅读全文
posted @ 2023-11-08 15:40 Yohoc 阅读(27) 评论(0) 推荐(0) 编辑
摘要: 最大汇聚层和平均汇聚层 填充和步幅 多个通道 汇聚层的目的 1. 降低卷积层对位置的敏感性 卷积层的输出特征图对目标的位置是很敏感的。池化可以减少这种位置敏感性。比如我们做2x2最大池化,输出特征图的值就仅依赖于输入特征图2x2的区域,不再过于依赖位置信息。 2. 降低对空间采样表示的敏感性 卷积层 阅读全文
posted @ 2023-11-07 16:52 Yohoc 阅读(30) 评论(0) 推荐(0) 编辑
摘要: 多输入通道 多输出通道 1*1卷积核 当以每像素为基础应用时,1*1卷积层相当于全连接层。 1*1卷积层通常用于调整网络层的通道数量和控制模型复杂性。 阅读全文
posted @ 2023-11-07 16:12 Yohoc 阅读(25) 评论(0) 推荐(0) 编辑
摘要: 填充 步幅 总结: 填充可以增加输出的高度和宽度。这常用来使输出与输入具有相同的高和宽。同时填充可以解决原始图像通过卷积丢失边界有用信息的问题。 步幅可以减小输出的高和宽,例如输出的高和宽仅为输入的高和宽的(是一个大于的整数)。 填充和步幅可用于有效地调整数据的维度。 阅读全文
posted @ 2023-11-04 16:30 Yohoc 阅读(14) 评论(0) 推荐(0) 编辑
摘要: 特征映射和感受野 因此,当需要检测输入特征中更广区域时,我们可以构建一个更深的卷积网络 。 利用卷积网络进行目标边缘检测 阅读全文
posted @ 2023-11-04 16:02 Yohoc 阅读(4) 评论(0) 推荐(0) 编辑
摘要: 对于表格数据(其中行对应样本,列对应特征),我们寻找的模式可能涉及特征之间的交互,但是我们不能预先假设任何与特征交互相关的先验结构。 此时,多层感知机可能是最好的选择,然而对于高维感知数据,这种缺少结构的网络可能会变得不实用。原因如下: 当特征数非常高维时,全连接网络的参数会变得极大,导致计算成本大 阅读全文
posted @ 2023-11-04 15:20 Yohoc 阅读(44) 评论(0) 推荐(0) 编辑
摘要: 张量与GPU 不同GPU之间操作 神经网络与GPU 总结 我们可以指定用于存储和计算的设备,例如CPU或GPU。默认情况下,数据在主内存中创建,然后使用CPU进行计算。 深度学习框架要求计算的所有输入数据都在同一设备上,无论是CPU还是GPU。 不经意地移动数据可能会显著降低性能。一个典型的错误如下 阅读全文
posted @ 2023-11-03 12:00 Yohoc 阅读(27) 评论(0) 推荐(0) 编辑
摘要: 以PyTorch为例 class MLP(nn.Module): def __init__(self): super().__init__() self.hidden = nn.Linear(20, 256) self.output = nn.Linear(256, 10) def forward( 阅读全文
posted @ 2023-11-03 11:33 Yohoc 阅读(29) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 ··· 22 下一页