Processing math: 100%

随笔分类 -  吴恩达机器学习

摘要:单变量线性回归 (Linear Regression with One Variable) 模型表示(Model Representation) 我们的第一个学习算法是线性回归算法。在本节课中,你会看到这个算法的概况,更重要的是你将会了解监督学习过程完整的流程。 让我们通过一个例子来开始:这个例子是 阅读全文
posted @ 2019-12-08 13:56 KerShaw 阅读(662) 评论(0) 推荐(0) 编辑
摘要:引言(Introduction) 欢迎(Welcome) 机器学习是目前信息技术中最激动人心的方向之一。在这门课中,你将学习到这门技术的前沿,并可以自己实现学习机器学习的算法。 你或许每天都在不知不觉中使用了机器学习的算法每次,你打开谷歌、必应搜索到你需要的内容,正是因为他们有良好的学习算法。谷歌和 阅读全文
posted @ 2019-12-08 12:21 KerShaw 阅读(300) 评论(0) 推荐(0) 编辑
摘要:支持向量机 (SVM) 是一个非常经典且高效的分类模型。但是,支持向量机中涉及许多复杂的数学推导,并需要比较强的凸优化基础,使得有些初学者虽下大量时间和精力研读,但仍一头雾水,最终对其望而却步。本文旨在从零构建支持向量机,涵盖从思想到形式化,再简化,最后实现的完整过程,并展现其完整思想脉络和所有公式推导细节。本文力图做到逻辑清晰而删繁就简,避免引入不必要的概念、记号等。此外,本文并不需要读者有凸优化的基础,以减轻读者的负担。对于用到的优化技术,在文中均有介绍。 尽管现在深度学习十分流行,了解支持向量机的原理,对想法的形式化、简化,及一步步使模型更一般化的过程,及其具体实现仍然有其研究价值。另一方面,支持向量机仍有其一席之地。相比深度神经网络,支持向量机特别擅长于特征维数多于样本数的情况,而小样本学习至今仍是深度学习的一大难题。 阅读全文
posted @ 2019-06-15 15:18 KerShaw 阅读(690) 评论(0) 推荐(0) 编辑
摘要:总结(Conclusion) 总结和致谢(Summary and Thank You) 欢迎来到《机器学习》课的最后一段视频。我们已经一起学习很长一段时间了。在最后这段视频中,我想快速地回顾一下这门课的主要内容,然后简单说几句想说的话。 作为这门课的结束时间,那么我们学到了些什么呢?在这门课中,我们 阅读全文
posted @ 2019-05-19 22:53 KerShaw 阅读(502) 评论(0) 推荐(0) 编辑
摘要:应用实例:图片文字识别(Application Example: Photo OCR) 问题描述和流程图(Problem Description and Pipeline) 图像文字识别应用所作的事是,从一张给定的图片中识别文字。这比从一份扫描文档中识别文字要复杂的多。 为了完成这样的工作,需要采取 阅读全文
posted @ 2019-05-19 22:52 KerShaw 阅读(206) 评论(0) 推荐(0) 编辑
摘要:大规模机器学习(Large Scale Machine Learning) 大型数据集的学习(Learning With Large Datasets) 如果你回顾一下最近5年或10年的机器学习历史。学习算法现在比5年前更好地工作的原因之一就是我们现在拥有了大量的数据,可以用来训练我们的算法。那么为 阅读全文
posted @ 2019-05-19 22:51 KerShaw 阅读(286) 评论(0) 推荐(0) 编辑
摘要:推荐系统(Recommender Systems) 问题阐述(Problem Formulation) 将 推荐系统 纳入这门课程来讲有以下两个原因: 第一、仅仅因为它是机器学习中的一个重要的应用。在过去几年,我偶尔访问硅谷不同的技术公司,我常和工作在这儿致力于机器学习应用的人们聊天,我常问他们,最 阅读全文
posted @ 2019-05-19 22:50 KerShaw 阅读(385) 评论(0) 推荐(0) 编辑
摘要:异常检测(Anomaly Detection) 问题的动机 (Problem Motivation) 异常检测( Anomaly detection )问题是机器学习算法中的一个常见应用。这种算法的有趣之处在于:它虽然主要用于非监督学习问题,但从某些角度看,它又和监督学习问题非常类似。 举例说明什么 阅读全文
posted @ 2019-05-19 22:49 KerShaw 阅读(538) 评论(0) 推荐(0) 编辑
摘要:降维(Dimensionality Reduction) 动机一:数据压缩(Motivation I : Data Compression) 数据压缩允许我们压缩数据,从而使用较少的计算机内存或磁盘空间,还会加快算法的学习速度。 下面举例说明下降维是什么? 在工业上,往往有成百上千个特征。比如,可能 阅读全文
posted @ 2019-05-19 22:48 KerShaw 阅读(548) 评论(0) 推荐(0) 编辑
摘要:聚类(Clustering) 非监督学习:简介(Unsupervised Learning: Introduction) 本章节介绍聚类算法,这是我们学习的第一个非监督学习算法——学习无标签数据,而不是此前的有标签数据。 什么是非监督学习?与监督学习对比 ,有标签的训练集,目标是找到区分正负样本的决 阅读全文
posted @ 2019-05-19 22:47 KerShaw 阅读(529) 评论(0) 推荐(0) 编辑
摘要:支持向量机(Support Vector Machines) 优化目标(Optimization Objective) 到目前为止,你已经见过一系列不同的学习算法。在监督学习中,许多学习算法的性能都非常类似,因此,重要的不是你该选择使用算法 A 还是算法 B ,其实一个算法的表现通常依赖于你的水平。 阅读全文
posted @ 2019-05-19 22:46 KerShaw 阅读(319) 评论(0) 推荐(0) 编辑
摘要:机器学习诊断(Machine learning diagnostic) Diagnostic : A test that you can run to gain insight what is / isn't working with a learning algorithm, and gain g 阅读全文
posted @ 2019-05-19 22:43 KerShaw 阅读(307) 评论(0) 推荐(0) 编辑
摘要:前馈神经网络(Feedforward Neural Network BP) 常见的前馈神经网络 感知器网络 感知器(又叫感知机)是最简单的前馈网络,它主要用于模式分类,也可用在基于模式分类的学习控制和多模态控制中。感知器网络可分为单层感知器网络和多层感知器网络。 BP网络 BP网络是指连接权调整采用 阅读全文
posted @ 2019-05-19 21:03 KerShaw 阅读(1359) 评论(0) 推荐(0) 编辑
摘要:正则化(Regularization Solving the Problem of Overfitting) 欠拟合(高偏差) VS 过度拟合(高方差) Underfitting, or high bias, is when the form of our hypothesis function h 阅读全文
posted @ 2019-05-19 20:59 KerShaw 阅读(287) 评论(0) 推荐(1) 编辑
摘要:逻辑回归(Logistic Regression) 假设函数(Hypothesis Function) hθ(x)=g(θTx)=g(z)=11+ez=11+eθTx g函数称为 Sigmoid Functio 阅读全文
posted @ 2019-05-19 20:53 KerShaw 阅读(281) 评论(0) 推荐(0) 编辑
摘要:线性回归(Linear Regression with One / Multiple Variable) 定义符号(Symbol Definition) m = 数据集中训练样本的数量 n = 特征的数量 x = 输入变量 / 特征 y = 输出变量 / 目标变量 (x, y) 表示一个训练样本 $ 阅读全文
posted @ 2019-05-19 20:42 KerShaw 阅读(352) 评论(0) 推荐(0) 编辑
摘要:Windows安装Octave "http://wiki.octave.org/Octave_for_Microsoft_Windows" 基本操作(Basic Operations) 移动数据(Moving Data Around) 计算数据(Computing on Data) 数据绘制(Plo 阅读全文
posted @ 2019-04-04 12:53 KerShaw 阅读(673) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示