上一页 1 2 3 4 5 6 7 ··· 18 下一页
摘要: 什么是预训练模型 简单来说,预训练模型(pre-trained model)是前人为了解决类似问题所创造出来的模型。你在解决问题的时候,不用从零开始训练一个新模型,可以从在类似问题中训练过的模型入手。 比如说,你如果想做一辆自动驾驶汽车,可以花数年时间从零开始构建一个性能优良的图像识别算法,也可以从 阅读全文
posted @ 2018-01-11 17:56 起床oO 阅读(9642) 评论(1) 推荐(1) 编辑
摘要: channel=1的灰度图输入的情况 多通道卷积操作 左列的X是输入的图像(此处channel是3,也可以理解为RGB,色彩图像),中间红色的列是我们的kernel(即3*3的filter),共两个(即输出的feature通道为2)。最后一列为卷积之后的特征(由于是2个kernel,输出通道为2)。 阅读全文
posted @ 2018-01-10 17:37 起床oO 阅读(2220) 评论(0) 推荐(0) 编辑
摘要: Squeeze-and-Excitation Networks Paper 近些年来,卷积神经网络在很多领域都取得了巨大的突破。而卷积核作为卷积神经网络的核心,通常被看做是在局部感受野上,将空间上(spatial)的信息和特征维度上(channel-wise)的信息进行聚合的信息聚合体。卷积神经网络 阅读全文
posted @ 2018-01-09 17:51 起床oO 阅读(2651) 评论(0) 推荐(1) 编辑
摘要: 1789张图像 包含6类Object:Clock,Lamp(Desk Lamp),Faucet,Outlet,Switch,Sign 类别 图片数量 物体数量 训练集图片数量 训练集物体数量 测试集图片数量 测试集物体数量 测试集物体数量/ 训练集物体数量 Clock 404 440 333 360 阅读全文
posted @ 2018-01-08 15:06 起床oO 阅读(299) 评论(0) 推荐(0) 编辑
摘要: 图片预处理 图片生成器ImageDataGenerator 用以生成一个batch的图像数据,支持实时数据提升。训练时该函数无限生成数据,知道达到规定的epoch次数为止。 参数 featurewise_center:布尔值,使输入数据集去中心化(均值为0)按feature执行 samplewise 阅读全文
posted @ 2018-01-08 11:18 起床oO 阅读(1861) 评论(0) 推荐(0) 编辑
摘要: Dense层:全连接层 Activatiion层:激活层,对一个层的输出施加激活函数 Dropout层:为输入数据施加Dropout。Dropout将在训练过程中每次更新参数时按一定概率(rate)随机断开输入神经元,Dropout层用于防止过拟合 Flatten层:Flatten层用来将输入“压平 阅读全文
posted @ 2018-01-08 10:51 起床oO 阅读(1660) 评论(0) 推荐(0) 编辑
摘要: 先定义几个参数 输入图片大小 W*W Filter大小F*F 步长 S padding的像素数P N = ( W + 2*P - F ) / S + 1 输入图片的大小为N * N 阅读全文
posted @ 2018-01-08 10:41 起床oO 阅读(2922) 评论(0) 推荐(0) 编辑
摘要: 根据tensorflow中的Conv2D函数,先定义几个基本符号: 在tensorflow中padding的方式有两种,一种是valid,一种是same padding='valid' new_height = new_width = (W - F + 1) / S (结果向上取整) 也就是说,Co 阅读全文
posted @ 2018-01-08 10:14 起床oO 阅读(600) 评论(0) 推荐(0) 编辑
摘要: 常用的Region Proposal Selective Search Edge Boxes Softmax-loss softmax-loss层和softmax层计算大致是相同的,softmax是一个分类器,计算的是类别的概率(Likelihood),是Logistic Regression的一种 阅读全文
posted @ 2017-12-18 11:21 起床oO 阅读(813) 评论(0) 推荐(0) 编辑
摘要: 【目标检测】Faster RCNN算法详解 Ren, Shaoqing, et al. “Faster R-CNN: Towards real-time object detection with region proposal networks.” Advances in Neural Infor 阅读全文
posted @ 2017-12-18 11:11 起床oO 阅读(942) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 ··· 18 下一页