摘要: [DeeplearningAI笔记]第二章3.1 3.2超参数搜索技巧 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 3.1 调试处理 需要调节的参数 级别一:$\alpha$学习率是最重要的需要调节的参数 级别二: Momentum参数 $\beta$ 0 阅读全文
posted @ 2017-10-29 10:47 WUST许志伟 阅读(754) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第二章2.6 2.9Momentum/RMSprop/Adam与学习率衰减 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.6 动量梯度下降法(Momentum) 另一种成本函数优化算法,优化速度一般快于标准的梯度下降算 阅读全文
posted @ 2017-10-25 13:43 WUST许志伟 阅读(2536) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第二章2.3 2.5带修正偏差的指数加权平均 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.3 指数加权平均 举个例子,对于图中英国的温度数据计算移动平均值或者说是移动平均值(Moving average). 大体公式 阅读全文
posted @ 2017-10-24 15:23 WUST许志伟 阅读(2748) 评论(1) 推荐(3) 编辑
摘要: [DeeplearningAI笔记]第二章2.1 2.2mini batch梯度下降法 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.1 mini batch gradient descent mini batch梯度下降法 我们将训练数据组合到一个大的 阅读全文
posted @ 2017-10-24 10:51 WUST许志伟 阅读(872) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第二章1.10 1.12梯度消失,梯度爆炸,权重初始化 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 1.10 梯度消失和梯度爆炸 当训练神经网络,尤其是深度神经网络时,经常会出现的问题是梯度消失或者梯度爆炸,也就是说当你 阅读全文
posted @ 2017-10-23 15:49 WUST许志伟 阅读(657) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第二章1.9归一化normalization 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 1.9 归一化Normaliation 训练神经网络,其中一个加速训练的方法就是归一化输入(normalize inputs). 阅读全文
posted @ 2017-10-22 13:35 WUST许志伟 阅读(1334) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第二章1.4 1.8正则化与Dropout 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 1.4 正则化(regularization) 如果你的神经网络出现了过拟合(训练集与验证集得到的结果方差较大),最先想到的方法就是 阅读全文
posted @ 2017-10-20 15:26 WUST许志伟 阅读(1442) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第二章1.1 1.3偏差/方差/欠拟合/过拟合/训练集/验证集/测试集 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 1.1 训练/开发/测试集 对于一个数据集而言,可以将一个数据集分为三个部分,一部分作为训练集,一部分作 阅读全文
posted @ 2017-10-18 20:56 WUST许志伟 阅读(1515) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第一章人工智能行业大师访谈 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 吴恩达采访Geoffrey Hinton NG:前几十年,你就已经发明了这么多神经网络和深度学习相关的概念,我其实很好奇,在这么多你发明的东西中,哪 阅读全文
posted @ 2017-10-17 18:38 WUST许志伟 阅读(684) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第一章4.深度神经网络的解释 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 4.3 核对矩阵的维数 经验方法论 对于神经网络想增加得到没有bug的程序的概率的方法:需要仔细的思考矩阵的维数,Angrew自己在调试bug时自 阅读全文
posted @ 2017-10-17 12:46 WUST许志伟 阅读(314) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第一章3.2 3.11浅层神经网络与激活函数的原理 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 3.2 神经网络表示 对于一个由输入层,隐藏层,输出层三层所组成的神经网络来说,输入层,即输入数据被称为第0层,中间层被称为 阅读全文
posted @ 2017-10-15 14:17 WUST许志伟 阅读(473) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第一章2.11 2.16 向量化与python/numpy向量说明 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.11向量化 向量化是消除代码中显示for循环语句的艺术,在训练大数据集时,深度学习算法才变得高效,所以代 阅读全文
posted @ 2017-10-14 17:01 WUST许志伟 阅读(422) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第一章2.1 2.4 二分分类,logistic回归,logistic回归损失函数,梯度下降法 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.1 二分分类 在二分分类问题中,目标是训练出一个分类器,它以图片的特征向量x 阅读全文
posted @ 2017-10-13 16:52 WUST许志伟 阅读(395) 评论(0) 推荐(0) 编辑
摘要: Tensorflow简单CNN实现详解 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " python """转换图像数据格式时需要将它们的颜色空间变为灰度空间,将图像尺寸修改为同一尺寸,并将标签依附于每幅图像""" import tensorflow as tf sess = tf.S 阅读全文
posted @ 2017-09-22 14:07 WUST许志伟 阅读(587) 评论(0) 推荐(0) 编辑
摘要: 'utf 8' codec can't decode byte 0xff in position 0: invalid start byte 觉得有用的话,欢迎一起讨论相互学习~ "Follow Me" 今天使用语句 读取图片文件的时候遇到了以下问题: 原因: 0x92 即 10010010,UTF 阅读全文
posted @ 2017-09-15 15:21 WUST许志伟 阅读(6050) 评论(0) 推荐(0) 编辑
摘要: Tensorflow滑动平均模型tf.train.ExponentialMovingAverage解析 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 移动平均法相关知识 "原文链接" 移动平均法又称滑动平均法、滑动平均模型法(Moving average,MA) 什么是移动平均法 移 阅读全文
posted @ 2017-09-14 17:06 WUST许志伟 阅读(12034) 评论(1) 推荐(1) 编辑
摘要: 利用TFRecords存储与读取带标签的图片 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " TFRecords其实是一种二进制文件,虽然它不如其他格式好理解,但是它能更好的利用内存,更方便复制和移动,并且不需要单独的标签文件 TFRecords文件包含了tf.train.Exampl 阅读全文
posted @ 2017-09-08 21:02 WUST许志伟 阅读(2664) 评论(0) 推荐(0) 编辑
摘要: 标准TensorFlow格式 TFRecords 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " TFRecords可以允许你讲任意的数据转换为TensorFlow所支持的格式, 这种方法可以使TensorFlow的数据集更容易与网络应用架构相匹配。这种建议的方法就是使用TFRecor 阅读全文
posted @ 2017-09-08 15:00 WUST许志伟 阅读(771) 评论(0) 推荐(0) 编辑
摘要: tensorflow Image解码函数 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " Decode a PNG encoded image to a uint8 tensor. 将一个png编码的图像解码成一个uint8张量。 The attr indicates the desi 阅读全文
posted @ 2017-09-08 11:11 WUST许志伟 阅读(1214) 评论(0) 推荐(0) 编辑
摘要: Active Function 激活函数 原创文章,请勿转载哦~!! 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " Tensorflow提供了多种激活函数,在CNN中,人们主要是用tf.nn.relu,是因为它虽然会带来一些信息损失,但是性能较为突出.开始设计模型时,推荐使用tf.n 阅读全文
posted @ 2017-09-06 11:02 WUST许志伟 阅读(2478) 评论(0) 推荐(2) 编辑
摘要: tensorflow.python.framework.errors_impl.OutOfRangeError: FIFOQueue 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 今天遇到了这个问题 经过查找资料:local变量没有初始化. 初始化变量语句改成: init_op = 阅读全文
posted @ 2017-09-05 15:20 WUST许志伟 阅读(7420) 评论(0) 推荐(0) 编辑
摘要: tf.train.shuffle_batch函数解析 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " (tensor_list, batch_size, capacity, min_after_dequeue, num_threads=1, seed=None, enqueue_man 阅读全文
posted @ 2017-08-29 17:22 WUST许志伟 阅读(5890) 评论(0) 推荐(0) 编辑
摘要: sparse_softmax_cross_entropy_with_logits 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 定义 说明 此函数大致与tf_nn_softmax_cross_entropy_with_logits的计算方式相同, 适用于每个类别相互独立且排斥的情况, 阅读全文
posted @ 2017-08-26 16:28 WUST许志伟 阅读(7025) 评论(0) 推荐(0) 编辑
摘要: softmax_cross_entropy_with_logits 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 函数定义 解释 这个函数的作用是计算 logits 经 softmax 函数激活之后的交叉熵。 对于每个独立的分类任务,这个函数是去度量概率误差。比如,在 CIFAR 1 阅读全文
posted @ 2017-08-26 16:16 WUST许志伟 阅读(2178) 评论(0) 推荐(0) 编辑
摘要: weighted_cross_entropy_with_logits 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 此函数功能以及计算方式基本与tf_nn_sigmoid_cross_entropy_with_logits差不多,但是加上了权重的功能,是计算具有权重的sigmoid交 阅读全文
posted @ 2017-08-26 16:05 WUST许志伟 阅读(10142) 评论(0) 推荐(1) 编辑