摘要:
首先看一下原图像 先用最近邻插值法 由这幅台风图像的扩增来看,从1999扩增到2048极大的改变了原图像,且两种扩增方式在变化上极其相似,但是双三次插值所需要的时间是最近邻插值的139.9/1.5≈93.26倍之多,当然限于以上程序是使用双层for循环加上多个if判断,应该有改进的空间 阅读全文
摘要:
声明:图片来源于网络 仅用于学术科研学习用途 如有版权诉求 请留言 会立即删除博文 首先读入图片,读入方法随意,可以用PIL下的Image,可以直接open读到numpy里面,也可以用openCV,为了下面分割的颜色空间转换方便我用的是openCV的cv2 作业要求将RGB颜色空间下的图片转换为YC 阅读全文
摘要:
阅读全文
摘要:
开源框架与迁移 上面介绍了一些已经取得很好成绩的CNN框架,我们可以直接从GitHub上下载这些神经网络的结构和已经在ImageNet等数据集上训练好的权重超参数。 在应用于我们自己的数据时。 1.如果我们的数据集很小,我们可以采用对原框架和权重都保持不变,只更改最后的output层实现迁移。 2. 阅读全文
摘要:
1.经典的CNN LeNet-5 1998的CNN鼻祖 以前用的sigmoid和tanh 下图给的是relu和softmax AlexNet ImageNet2012的冠军 VGG-16 ImageNet2014的冠军和亚军 2.残差神经网络 imageNet2015冠军和2016的亚军 2017的 阅读全文
摘要:
本次作业:Andrew Ng的CNN的搭建卷积神经网络模型以及应用(1&2)作业目录参考这位博主的整理:https://blog.csdn.net/u013733326/article/details/79827273 今天要实现的是识别手势姿势表达的数字 我的Git传送门:https://gith 阅读全文
摘要:
网上对np.pad的解释很玄乎,举的例子也不够直观,看了更晕了,对于CNN的填充请参考下面就够用了: np.pad的参数依次是目标数组,多增加的维数可以理解为一张图的前后左右增加几圈,设置为'constant'之后为连续填充相同的值,默认为(0, 0),可以设置为constant_values = 阅读全文
摘要:
以上是一个识别手写数字的示例 在这个示例中使用了两个卷积-池化层,三个全连接层和最后的softmax输出层 一般而言,CNN的构成就是由数个卷积层紧跟池化层再加上数个全连接层和输出层来构建网络。 在上述网络中可以看到一个有关参数的现象如下图: 随着卷积网络层数的增加,可以看到有关图片数据的heigh 阅读全文
摘要:
来看上图的简单CNN: 从39x39x3的原始图像 不填充且步长为1的情况下经过3x3的10个filter卷积后 得到了 37x37x10的数据 不填充且步长为2的情况下经过5x5的20个filter卷积后 得到了 17x17x20的数据 不填充且步长为2的情况下经过5x5的40个filter卷积后 阅读全文
摘要:
和单层图像的卷积类似,只需要对每一个filter构成的三层立方体上的每一个数字与原图像对应位置的数字相乘相加求和即可。 在这个时候可以分别设置filter的R、G、B三层,可以同时检测纵向或横向边缘,也可以只检测某一通道的,只需要对其他通道的filter置为0即可。 那么如果要使用filter同时对 阅读全文