摘要: 目录 人工误差分析 数据不匹配问题 迁移学习 多任务学习 端到端学习 一、人工误差分析manual error analysis 对学习的结果进行人工误差分析 例:猫的分类器train结果的正确率为90%(10%的误差),对结果进行人工分析,如果发现有些狗被识别为猫导致错误,考虑怎么来减少这种错误? 阅读全文
posted @ 2018-04-30 21:17 huapyuan 阅读(215) 评论(0) 推荐(0) 编辑
摘要: 目录 计算机视觉问题 边缘检测实例和卷积计算 padding对图像填充 步幅stride 交相关cross-correlation和卷积 在立体volumn上做卷积 构建单层卷积神经网络 pooling池化操作 卷积神经网络示例(全连接层) 为什么用卷积神经网络 一、计算视觉问题 例子:图像分类,风 阅读全文
posted @ 2018-04-30 21:17 huapyuan 阅读(425) 评论(0) 推荐(0) 编辑
摘要: 目录 三个经典网络 残差网络 1x1卷积 google inception网络 迁移学习 数据增强 如何使用开源代码 一、三个经典网络 LeNet [LeCun et al., 1998. Gradient-based learning applied to document recognition 阅读全文
posted @ 2018-04-30 21:17 huapyuan 阅读(321) 评论(0) 推荐(0) 编辑
摘要: 目录 数据集划分 偏差和方差 判断方差和偏差并调整的基本思想 解决高方差问题 归一化输入的特征值(X) 梯度爆炸/消失 用双边导数来进行梯度检验 一、数据集可以划分成三个部分:训练(train)/检验(dev)/测试(test) 在train set上进行训练,在dev上进行验证找出了最好的模型,最 阅读全文
posted @ 2018-04-30 21:15 huapyuan 阅读(477) 评论(0) 推荐(0) 编辑
摘要: 目录 mini-batch 指数加权平均 优化梯度下降法:momentum、RMSprop、Adam 学习率衰减 局部最优问题 一、mini-batch mini-batch:把训练集划分成小点的子集 为什么用mini-batch:当数据集样本数较多时,需要对整个数据计算完成后才能进行梯度下降,速度 阅读全文
posted @ 2018-04-30 21:15 huapyuan 阅读(1334) 评论(0) 推荐(0) 编辑
摘要: 目录 超参数调整 几个超参数范围选择的方法 超参数的实践:pandas VS canviar 正则化激活函数 softmax回归 一、超参数调整 重要性 从高到低:学习率$\alpha$——>$\beta$(0.9)、hidden units、minibatch size——>layers、学习率衰 阅读全文
posted @ 2018-04-30 21:15 huapyuan 阅读(2639) 评论(0) 推荐(0) 编辑