随笔分类 -  深度学习总结

上一页 1 2

nn.ConvTranspose2d的参数output_padding的作用
摘要:使用前提:stride > 1 same卷积操作 是通过padding使得卷积之后输出的特征图大小保持不变(相对于输入特征图),不代表得到的输出特征图的大小与输入特征图的大小完全相同, 而是他们之间的比例保持为 输入特征图大小/输出特征图大小 = stride 举例: 比如输入特征图为6*6,str 阅读全文

posted @ 2020-04-07 20:30 cltt 阅读(575) 评论(0) 推荐(0) 编辑

CNN 逆卷积(fractionally-strided convolutions)
摘要:1.首先先定义进行卷积的参数: 输入特征图为高宽一样的Hin*Hi大小的x 卷积核大小kernel_size 步长stride padding填充数(填充0) 输出特征图为Hout*Hout大小的y 计算式子为: Hout = floor( [Hin + 2*padding - kernel_siz 阅读全文

posted @ 2020-04-07 20:22 cltt 阅读(999) 评论(0) 推荐(0) 编辑

梯度消失 梯度爆炸
摘要:梯度消失问题和梯度爆炸问题一般随着网络层数的增加会变得越来越明显。 其实梯度爆炸和梯度消失问题都是因为网络太深,网络权值更新不稳定造成的,本质上是因为梯度反向传播中的连乘效应。对于更普遍的梯度消失问题,可以考虑用ReLU激活函数取代sigmoid激活函数。另外,LSTM的结构设计也可以改善RNN中的 阅读全文

posted @ 2020-04-07 14:21 cltt 阅读(259) 评论(0) 推荐(0) 编辑

CNN 卷积神经网络中的 接受视野(Receptive Field)
摘要:在卷积神经网络中,感受野定义:CNN每一层输出的特征图上的像素点在原始图像上的映射的区域大小。 RF (receptive field)描述了两个特征映射(Feature Maps)上神经元的关系,在进行 CNN 可视化的过程中非常有用。他也可以从侧面让我们了解, 为什么神经网络偏向于选择小的 Fi 阅读全文

posted @ 2020-04-06 19:20 cltt 阅读(1970) 评论(0) 推荐(0) 编辑

CNN中的卷积
摘要:1、什么是卷积:图像中不同数据窗口的数据和卷积核(一个滤波矩阵)作内积的操作叫做卷积。其计算过程又称为滤波(filter),本质是提取图像不同频段的特征。 2、什么是卷积核:也称为滤波器filter,带着一组固定权重的神经元,通常是n*m二维的矩阵,n和m也是神经元的感受野。n*m 矩阵中存的是对感 阅读全文

posted @ 2020-03-22 23:40 cltt 阅读(504) 评论(0) 推荐(0) 编辑

Batch normalization和Instance normalization的对比
摘要:原文链接: https://www.zhihu.com/question/68730628/answer/607608890BN和IN其实本质上是同一个东西,只是IN是作用于单张图片,但是BN作用于一个batch。 一.BN和IN的对比 假如现有6张图片x1,x2,x3,x4,x5,x6,每张图片在 阅读全文

posted @ 2020-03-19 13:15 cltt 阅读(1978) 评论(0) 推荐(0) 编辑

神经网络中出现过拟合的原因和几种解决方法
摘要:过拟合产生的原因? 过拟合的表现:模型在训练集上误差很小,在测试集上误差很大。 过拟合主要由两个方面决定:一是数据集,二是模型。 我认为过拟合问题目前来说只能减少不能避免。 数据集角度: 我们知道无论是机器学习还是深度学习,都是通过在训练集上做训练来最小化训练集上的损失函数来得到想要的模型,也就是说 阅读全文

posted @ 2020-03-18 11:59 cltt 阅读(4652) 评论(0) 推荐(1) 编辑

反卷积网络的棋盘格现象
摘要:1 现象通过神经网络生成的图片,放大了看会有棋盘格的现象2 分析混叠现象造成的,反卷积时,到stride和ksize 不能整除时,就会有这种现象,二维图像的时候更显著。神经网络虽然能学习,可以抵消一部分现象,但是会造成这个模型不鲁棒。常见的有三种方法上采样,反卷积,nn插值,双线性插值。替换GAN网 阅读全文

posted @ 2020-03-16 19:21 cltt 阅读(751) 评论(0) 推荐(0) 编辑

图像的插值算法
摘要:最近邻插值 这是一种简单的插值算法:不需要计算,在待求象素的四邻象素中,将距离待求象素最近的邻象素灰度赋给待求象素 设i+u, j+v(i, j为正整数, u, v为大于零小于1的小数,下同)为待求象素坐标,则待求象素灰度的值 f(i+u, j+v) 如下图所示: 如果(i+u, j+v)落在A区, 阅读全文

posted @ 2020-03-16 19:18 cltt 阅读(448) 评论(0) 推荐(0) 编辑

VGG
摘要:VGGNet是牛津大学计算机视觉组(Visual Geometry Group)和Google DeepMind公司的研究员一起研发的卷积神经网络。 VGGNet探索了卷积神经网络的深度与其性能之间的关系,通过反复的使用3x3的小型卷积核和2x2的最大池化层,VGGNet成功地构筑了16~19层深的 阅读全文

posted @ 2020-03-16 14:31 cltt 阅读(564) 评论(0) 推荐(0) 编辑

深度学习 高数知识
摘要:函数连续的充要条件 函数f(x)在x0连续,当且仅当f(x)满足以下三个条件:1)f(x)在x0及其左右近旁有定义2)f(x)在x0的极限存在3)f(x)在x0的极限值与函数值f(x0)相等 高数函数可导充分必要条件 ①左右导数存在且相等是可导的充分必要条件。 ②可导必定连续。 ③连续不一定可导 阅读全文

posted @ 2020-02-27 18:44 cltt 阅读(416) 评论(0) 推荐(0) 编辑

深度学习 概率知识
摘要:贝叶斯 高斯分布 交叉熵 根据香浓理论,熵是描述信息量的一种度量,如果某一事件发生的概率越小,也就是不确定性越大,那么熵就越大,或者说是信息量越大 我们要让交叉熵尽可能地小,模型预测效果越好 在计算CrossEntropyLosss时,真实的label(一个标量)被处理成onehot编码的形式。 交 阅读全文

posted @ 2020-02-17 11:57 cltt 阅读(207) 评论(0) 推荐(0) 编辑

上一页 1 2
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

导航

统计

点击右上角即可分享
微信分享提示