摘要: 前言 本文为学习《深度学习入门》一书的学习笔记,详情请阅读原著 五、CNN的实现 搭建进行手写数字识别的 CNN。这里要实现如图 7-23 所示的 CNN。 图 7-23 简单 CNN 的网络构成 如图 7-23 所示,网络的构成是“Convolution - ReLU - Pooling -Aff 阅读全文
posted @ 2019-05-12 18:56 砍柴人Ryan 阅读(2156) 评论(3) 推荐(0) 编辑
摘要: 前言 本文学学习深度学习入门一书的学习笔记,详情请阅读原著 三、池化层 池化是缩小高、长方向上的空间的运算。比如,如图 7-14 所示,进行将 2 × 2 的区域集约成 1 个元素的处理,缩小空间大小。 图 7-14 Max 池化的处理顺序 图 7-14 的例子是按步幅 2 进行 2 × 2 的 M 阅读全文
posted @ 2019-05-12 18:55 砍柴人Ryan 阅读(1010) 评论(0) 推荐(0) 编辑
摘要: 前言 本文为学习《深度学习》入门一书的学习笔记,详情请阅读原著 一、整体结构 卷积神经网络(Convolutional Neural Network,CNN)。CNN被用于图像识别、语音识别等各种场合。 CNN和之前介绍的神经网络一样,可以通过组装层来构建,但是,CNN中出现了卷积层(Convolu 阅读全文
posted @ 2019-05-12 18:55 砍柴人Ryan 阅读(715) 评论(0) 推荐(0) 编辑
摘要: 与学习相关的技巧 前言 本文为本人学习深度学习入门一书的学习笔记,详情请阅读原著 四、正则化 机器学习的问题中,过拟合是一个很常见的问题。过拟合指的是只能拟合训练数据,但不能很好地拟合不包含在训练数据中的其他数据的状态。机器学习的目标是提高泛化能力,即便是没有包含在训练数据里的未观测数据,也希望模型 阅读全文
posted @ 2019-05-12 18:55 砍柴人Ryan 阅读(495) 评论(0) 推荐(0) 编辑
摘要: 与学习相关的技巧 前言 此为本人学习《深度学习入门》的学习笔记 一、参数的更新 神经网络的学习的目的是找到使损失函数的值尽可能小的参数。这是寻找最优参数的问题,解决这个问题的过程称为最优化(optimization)。为了找到最优参数,我们将参数的梯度(导数)作为了线索。使用参数的梯度,沿梯度方向更 阅读全文
posted @ 2019-05-12 18:54 砍柴人Ryan 阅读(323) 评论(0) 推荐(0) 编辑
摘要: 误差反向传播法 前言 此为本人学习《深度学习入门》的学习笔记 四、简单层的实现 本节将用 Python 实现前面的购买苹果的例子。这里,我们把要实现的计算图的乘法节点称为“乘法层”(MulLayer),加法节点称为“加法层”(AddLayer)。 1、乘法层的实现 层的实现中有两个共通的方法(接口) 阅读全文
posted @ 2019-05-12 18:54 砍柴人Ryan 阅读(1062) 评论(0) 推荐(0) 编辑
摘要: 误差反向传播法 前言 此为本人学习《深度学习入门》的学习笔记,详情请阅读原书 数值微分虽然简单,也容易实现,但是缺点是计算上比较费时间,本章介绍一个高效计算权重参数的梯度的方法--误差反向传播法 一、计算图 计算图将计算过程用图形表示出来。这里说的图形是数据结构图,通过多个节点和边表示(连接节点的直 阅读全文
posted @ 2019-05-12 18:54 砍柴人Ryan 阅读(2990) 评论(0) 推荐(0) 编辑
摘要: 第四章 神经网络的学习 前言 此为本人学习《深度学习入门》的学习笔记 三、数值微分 梯度法使用梯度的信息决定前进的方向 1、导数 (4.4) 式(4.4)表示的是函数的导数。左边的符号 表示 f(x)关于 x 的导数,即f(x)相对于 x 的变化程度。式(4.4)表示的导数的含义是,x 的“微小变化 阅读全文
posted @ 2019-05-12 18:53 砍柴人Ryan 阅读(515) 评论(0) 推荐(0) 编辑