摘要: 机器学习数学笔记|微积分梯度jensen不等式 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 原创文章,如需转载请保留出处 本博客为七月在线邹博老师机器学习数学课程学习笔记 为七月在线打call!! "课程传送门" 索引 微积分,梯度和Jensen不等式 Taylor展开及其应用 常 阅读全文
posted @ 2017-11-10 19:25 WUST许志伟 阅读(2942) 评论(0) 推荐(3) 编辑
摘要: [DeeplearningAI笔记]第三章2.9 2.10端到端学习 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.9 什么是端到端学习 What is End to end deeplearning 以前有一些数据处理系统或者学习系统,它们需要多个阶段 阅读全文
posted @ 2017-11-07 17:15 WUST许志伟 阅读(1567) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第三章2.7 2.8多任务学习/迁移学习 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.7 迁移学习 Transfer Learninig 神经网络可以从一个任务中习得知识,并将这些知识应用到另一个独立的任务中.例如: 阅读全文
posted @ 2017-11-06 17:33 WUST许志伟 阅读(3572) 评论(2) 推荐(3) 编辑
摘要: [DeeplearningAI笔记]第三章2.4 2.6不匹配的训练和开发/测试数据 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.4在不同分布上训练和测试数据 在深度学习时代,越来越多的团队使用和开发集/测试集不同分布的数据来训练模型.下面解释一些方法 阅读全文
posted @ 2017-11-05 20:34 WUST许志伟 阅读(1383) 评论(0) 推荐(0) 编辑
摘要: 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.1 误差分析 训练出来的模型往往没有达到人类水平的效果,为了得到人类水平的结果,我们对原因进行分析,这个过程称为误差分析. 实例剖析 1. 例如此时你正在训练一个猫分类器,其中正确率为90%,这离目标有一定的 阅读全文
posted @ 2017-11-05 14:51 WUST许志伟 阅读(629) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第三章1.8 1.12可避免误差与模型改善 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 1.8 为什么是人的表现 今天,机器学习算法可以与人类水平的表现性能竞争,因为它们在很多应用程序中更有生产力和更可行。并且设计和构建机器学习系统的工作流程都比 阅读全文
posted @ 2017-11-01 13:37 WUST许志伟 阅读(867) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第三章1.4 1.7开发集测试集划分与满足与优化指标 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 1.4 满足和优化指标 Stisficing and optimizing metrics 有时候把你要考虑的所有事情组合 阅读全文
posted @ 2017-10-31 13:19 WUST许志伟 阅读(757) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第三章1.1 1.3查准率/查全率/F1分数 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 1.1 什么是ML策略 机器学习策略简介 情景模拟 假设你正在训练一个分类器,你的系统已经达到了90%准确率,但是对于你的应用程序 阅读全文
posted @ 2017-10-30 21:06 WUST许志伟 阅读(897) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第二章3.8 3.9分类与softmax 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 3.8 Softmax regression Softmax回归.能让你在试图识别某一分类时作出预测,或者说是多种分类的一个,不只是识别两个分类. 以识别图片的 阅读全文
posted @ 2017-10-30 12:43 WUST许志伟 阅读(1807) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第二章3.4 3.7 Batch NormalizationBN算法 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 3.4正则化网络的激活函数 Batch归一化会使你的参数搜索问题变得很容易,使神经网络对超参数的选择更加稳定.超参数的范围会更庞大, 阅读全文
posted @ 2017-10-29 21:38 WUST许志伟 阅读(2050) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第二章3.1 3.2超参数搜索技巧 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 3.1 调试处理 需要调节的参数 级别一:$\alpha$学习率是最重要的需要调节的参数 级别二: Momentum参数 $\beta$ 0 阅读全文
posted @ 2017-10-29 10:47 WUST许志伟 阅读(761) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第二章2.6 2.9Momentum/RMSprop/Adam与学习率衰减 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.6 动量梯度下降法(Momentum) 另一种成本函数优化算法,优化速度一般快于标准的梯度下降算 阅读全文
posted @ 2017-10-25 13:43 WUST许志伟 阅读(2545) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第二章2.3 2.5带修正偏差的指数加权平均 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.3 指数加权平均 举个例子,对于图中英国的温度数据计算移动平均值或者说是移动平均值(Moving average). 大体公式 阅读全文
posted @ 2017-10-24 15:23 WUST许志伟 阅读(2763) 评论(1) 推荐(3) 编辑
摘要: [DeeplearningAI笔记]第二章2.1 2.2mini batch梯度下降法 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.1 mini batch gradient descent mini batch梯度下降法 我们将训练数据组合到一个大的 阅读全文
posted @ 2017-10-24 10:51 WUST许志伟 阅读(872) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第二章1.10 1.12梯度消失,梯度爆炸,权重初始化 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 1.10 梯度消失和梯度爆炸 当训练神经网络,尤其是深度神经网络时,经常会出现的问题是梯度消失或者梯度爆炸,也就是说当你 阅读全文
posted @ 2017-10-23 15:49 WUST许志伟 阅读(657) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第二章1.9归一化normalization 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 1.9 归一化Normaliation 训练神经网络,其中一个加速训练的方法就是归一化输入(normalize inputs). 阅读全文
posted @ 2017-10-22 13:35 WUST许志伟 阅读(1340) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第二章1.4 1.8正则化与Dropout 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 1.4 正则化(regularization) 如果你的神经网络出现了过拟合(训练集与验证集得到的结果方差较大),最先想到的方法就是 阅读全文
posted @ 2017-10-20 15:26 WUST许志伟 阅读(1455) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第二章1.1 1.3偏差/方差/欠拟合/过拟合/训练集/验证集/测试集 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 1.1 训练/开发/测试集 对于一个数据集而言,可以将一个数据集分为三个部分,一部分作为训练集,一部分作 阅读全文
posted @ 2017-10-18 20:56 WUST许志伟 阅读(1521) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第一章人工智能行业大师访谈 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 吴恩达采访Geoffrey Hinton NG:前几十年,你就已经发明了这么多神经网络和深度学习相关的概念,我其实很好奇,在这么多你发明的东西中,哪 阅读全文
posted @ 2017-10-17 18:38 WUST许志伟 阅读(687) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第一章4.深度神经网络的解释 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 4.3 核对矩阵的维数 经验方法论 对于神经网络想增加得到没有bug的程序的概率的方法:需要仔细的思考矩阵的维数,Angrew自己在调试bug时自 阅读全文
posted @ 2017-10-17 12:46 WUST许志伟 阅读(315) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第一章3.2 3.11浅层神经网络与激活函数的原理 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 3.2 神经网络表示 对于一个由输入层,隐藏层,输出层三层所组成的神经网络来说,输入层,即输入数据被称为第0层,中间层被称为 阅读全文
posted @ 2017-10-15 14:17 WUST许志伟 阅读(479) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第一章2.11 2.16 向量化与python/numpy向量说明 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.11向量化 向量化是消除代码中显示for循环语句的艺术,在训练大数据集时,深度学习算法才变得高效,所以代 阅读全文
posted @ 2017-10-14 17:01 WUST许志伟 阅读(427) 评论(0) 推荐(0) 编辑
摘要: [DeeplearningAI笔记]第一章2.1 2.4 二分分类,logistic回归,logistic回归损失函数,梯度下降法 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " "吴恩达老师课程原地址" 2.1 二分分类 在二分分类问题中,目标是训练出一个分类器,它以图片的特征向量x 阅读全文
posted @ 2017-10-13 16:52 WUST许志伟 阅读(397) 评论(0) 推荐(0) 编辑
摘要: Tensorflow简单CNN实现详解 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " python """转换图像数据格式时需要将它们的颜色空间变为灰度空间,将图像尺寸修改为同一尺寸,并将标签依附于每幅图像""" import tensorflow as tf sess = tf.S 阅读全文
posted @ 2017-09-22 14:07 WUST许志伟 阅读(590) 评论(0) 推荐(0) 编辑
摘要: 'utf 8' codec can't decode byte 0xff in position 0: invalid start byte 觉得有用的话,欢迎一起讨论相互学习~ "Follow Me" 今天使用语句 读取图片文件的时候遇到了以下问题: 原因: 0x92 即 10010010,UTF 阅读全文
posted @ 2017-09-15 15:21 WUST许志伟 阅读(6092) 评论(0) 推荐(0) 编辑