随笔分类 - 神经网络模型类别
摘要:参考:https://www.zhihu.com/question/56024942 1x1卷积核的作用: 1x1卷积核的最早出现在Network In Network的论文中,这里的作用在于加宽神经网络结构。而在于Inception网络中,1x1卷积核的作用在于降维,比如因为3x3卷积核和5x5卷
阅读全文
摘要:参考:https://blog.csdn.net/lanran2/article/details/60143861 ROI pooling: ROI是Regin of Interest的简写,指的是特征图上的框,特点在于输入特征图尺寸不固定,但是输出特征图尺寸固定。 这里加一个Fast RCNN和F
阅读全文
摘要:参考:https://www.cnblogs.com/jie-dcai/p/5803220.html 参考:https://www.zhihu.com/question/38102762 参考:https://blog.csdn.net/u010725283/article/details/7859
阅读全文
摘要:参考:https://www.cnblogs.com/jie-dcai/p/5803220.html VGG模型: (注:一个5x5的卷积核可以用2个3x3的卷积核来代替,一个7x7的卷积核可以用3个5x5的卷积核来代替,具体解释可参考:https://www.zhihu.com/question/
阅读全文
摘要:参考:https://blog.csdn.net/xbinworld/article/details/45619685 参考:https://blog.csdn.net/fate_fjh/article/details/53446630(FCN模型) 参考:https://blog.csdn.net
阅读全文
摘要:参考:https://blog.csdn.net/u014802590/article/details/68495238 参考:https://www.2cto.com/kf/201709/680575.html 1、读取图片文件并写为TFRecords文件 2、读取图片文件对应的tfrecords
阅读全文
摘要:深层循环神经网络是循环神经网络的另一种变种,为了增强模型的表达能力,可以将每一个时刻上的循环体重复多次。和卷积神经网络类似,每一层的循环体中参数是一致的,而不同层中的参数可以不同。为了更好的支持深层循环神经网络,tensorflow中提供了MultiRNNCell类来实现深层循环神经网络的前向传播过
阅读全文
摘要:1、tf.nn.dynamic_rnn()函数 参考:http://www.360doc.com/content/17/0321/10/10408243_638692495.shtml 参考:https://blog.csdn.net/u010089444/article/details/60963
阅读全文
摘要:循环神经网络的简单实现: 与单一tanh循环体结构不同,LSTM是一个拥有三个门结构的特殊网络结构。 LSTM靠一些门结构让信息有选择性的影响循环神经网络中每个时刻的状态,所谓的门结构就是一个使用sigmoid神经网络和一个按位做乘法的操作,这两个操作合在一起就是一个门结构。之所以该结构叫门是因为使
阅读全文
摘要:1、队列的实现: 2、通过tf.Coordinator和tf.QueueRunner两个类实现多线程协同的功能: tf.Coordinator主要用于协同多个线程一起停止,并提供should_stop、request_stop和join三个函数。在启动线程前,需要先声明一个tf.Coordinato
阅读全文
摘要:参考:http://www.wildml.com/2015/12/implementing-a-cnn-for-text-classification-in-tensorflow/ 独热编码(one-hot)编码: 也称为有效编码,其方法是用N位状态寄存器来对N个状态进行编码,每个状态都有它独立的寄
阅读全文
摘要:1、tensorflow中对jpeg格式图像的编码/解码函数: 2、图像大小调整(和上面的类似,仅多了图像大小调整的部分,下面的例子将类似): 通过tf.image.resize_image_with_crop_or_pad函数来调整图像大小的功能: 通过tf.image.central_crop函
阅读全文
摘要:迁移学习(概念): 就是将一个问题上训练好的模型通过简单的调整使其适用于一个新的问题。根据论文DeCAF中的结论,可以保留训练好的Inception-3模型中所有卷积层的参数,只是替换最后一层全连接层,在最后这一层全连接层之前的网络层称之为瓶颈层。 将新的图像通过训练好的卷积神经网络直到瓶颈层的过程
阅读全文
摘要:定义LeNet-5模型的前向传播过程: 介绍LeNet-5模型的每一层结构: 1、卷积层 这一层的输入就是原始的图像像素,LeNet-5模型接受的输入层大小为32x32x1,第一个卷积层过滤器的尺寸为5x5,深度为6,不使用全0填充,步长为1。因为没有使用全0填充,所以这一层的输出尺寸为32-5+1
阅读全文
摘要:参考:https://www.cnblogs.com/Yu-FeiFei/p/6800519.html 参考:tensorflow书 1、输入层 输入层是神经网络的输入,在图像处理的卷积神经网络中,它代表一张图片的像素矩阵,一般来说三维矩阵代表一张图片,三维矩阵的长和宽分别代表了图片的大小,三维矩阵
阅读全文
摘要:参考资料:http://blog.csdn.net/nuannuanyingying/article/details/70848765 https://www.zhihu.com/question/24827633 这里介绍较为常见的两种损失函数,分别是平方损失函数和交叉熵损失函数 1、平方损失函数
阅读全文
摘要:转自出处: http://blog.csdn.net/walilk/article/details/50278697 符号说明: 以如下图为例: 前面的网络结构对应二分类问题 后面的网络结构对应多分类问题 Layer层: 最左边的层为输入层(input layer),对应样本特征 最右边的层为输出层
阅读全文