上一页 1 ··· 14 15 16 17 18 19 20 21 22 ··· 58 下一页
摘要: 1.池化 池化的作用就是减少特征数量(降维)。最大值池化可提取图片纹理,均值池化可保留背景特征。 池化层可以非常有效地缩小矩阵的尺寸,从而减少最后全连接层中的参数。使用池化层既可以加快计算速度也有防止过拟合问题的作用 2.舍弃(dropout) 在神经网络的训练过程中, 将一部分神经元按照一定概率从 阅读全文
posted @ 2020-08-25 16:32 GumpYan 阅读(1121) 评论(0) 推荐(0) 编辑
摘要: 1.什么是标准化? 标准化:使数据符合 0 均值,1 为标准差的分布。 神经网络对0附近的数据更敏感,但是随着网络层数的增加,特征数据会出现偏离0均值的情况,标准化能够使数据符合0均值,1为标准差的分布,把偏移的特征数据重新拉回到0附近 Batch Normalization(批标准化):对一小批数 阅读全文
posted @ 2020-08-25 07:54 GumpYan 阅读(2078) 评论(0) 推荐(0) 编辑
摘要: 1.输出特征尺寸计算 在了解神经网络中卷积计算的整个过程后,就可以对输出特征图的尺寸进行计算,如图 5-8 所示,5×5 的图像经过 3×3 大小的卷积核做卷积计算后输出特征尺寸为 3×3。 2.全零填充(padding) 为了保持输出图像尺寸与输入图像一致,经常会在输入图像周围进行全零填充,如图 阅读全文
posted @ 2020-08-25 07:37 GumpYan 阅读(2639) 评论(0) 推荐(0) 编辑
摘要: 1.什么是感受野? 卷积神经网络各输出层每个像素点在原始图像上的映射区域大小 下图是感受野示意图 如果对这个5x5的原始输入图片,用黄色的3x3卷积核作用,会输出一个3x3的输出特征图,这个输出特征图上的每个像素点映射到原始的图片是3x3的区域,所以它(输出特征图)的感受野是3,如果再对这个3x3的 阅读全文
posted @ 2020-08-25 07:14 GumpYan 阅读(1605) 评论(0) 推荐(0) 编辑
摘要: 1. 利用 tf.cast (张量名,dtype=数据类型)强制将 Tensor 转换为该数据类型; 利用tf.reduce_min (张量名)计算张量维度上元素的最小值; 利用tf.reduce_max (张量名)计算张量维度上元素的最大值。 举例如下: 2.维度的定义 由上图可知对于一个二维张量 阅读全文
posted @ 2020-08-23 15:19 GumpYan 阅读(775) 评论(0) 推荐(0) 编辑
摘要: 1.基本概念 TensorFlow 中的 Tensor 表示张量,是多维数组、多维列表,用阶表示张量的维数。 0 阶张量叫做标量,表示的是一个单独的数,如 123; 1 阶张量叫作向量,表示的是一个一维数组,如[1,2,3]; 2 阶张量叫作矩阵,表示的是一个二维数组,它可以有 i 行 j 列个元素 阅读全文
posted @ 2020-08-23 14:38 GumpYan 阅读(412) 评论(0) 推荐(0) 编辑
摘要: 1.背景: 输出 y 中,1.01 代表 0 类鸢尾得分,2.01 代表 1 类鸢尾得分,-0.66 代表 2 类鸢尾得分。通过输出 y 可以看出数值最大(可能性最高)的是 1 类鸢尾,而不是标签 0 类鸢尾。这是由于最初的参数 w 和b 是随机产生的,现在输出的结果是蒙的 为了修正这一结果,我们用 阅读全文
posted @ 2020-08-23 11:46 GumpYan 阅读(326) 评论(0) 推荐(0) 编辑
摘要: centos软件安装相关的命令: (1)rpm rpm -ivh <包名.rpm>,-i 相当于--install,-vh表示查看安装过程(不会自动安装依赖,一般会失败) rpm -qa 列出安装的所有包 rpm -e <包名> 删除指定的包(一般不会卸载成功,因为不会自动删除依赖) (2)yum 阅读全文
posted @ 2020-08-19 23:51 GumpYan 阅读(85) 评论(0) 推荐(0) 编辑
摘要: 1.下载并按照anaconda 有图,安装时添加至全局变量 2.按照tensorflow2.1 新建一个名叫TF2.1的环境,用python3.7版本 conda create -n TF2.1 python=3.7 阅读全文
posted @ 2020-08-19 08:26 GumpYan 阅读(154) 评论(0) 推荐(0) 编辑
摘要: 1.ResNet的借鉴点 层间残差跳连,引入前方信息,减少梯度消失,使神经网络层数变深成为可能。 2.介绍 ResNet 即深度残差网络,由何恺明及其团队提出,是深度学习领域又一具有开创性的工作,通过对残差结构的运用, ResNet 使得训练数百层的网络成为了可能,从而具有非常强大的表征能力,其网络 阅读全文
posted @ 2020-08-18 23:22 GumpYan 阅读(4269) 评论(0) 推荐(1) 编辑
上一页 1 ··· 14 15 16 17 18 19 20 21 22 ··· 58 下一页