摘要: 1. 条件概率公式 设A, B是两个事件,且P(B)>0, 则在事件B发生的条件下,事件A发生的条件概率(conditional probability)为: P(A|B)=P(AB)/P(B) 条件概率是理解全概率公式和贝叶斯公式的基础,可以这样来考虑,如果P(A|B)大于P(A)则表示B的发生使 阅读全文
posted @ 2017-05-19 14:44 Aaron_L 阅读(1695) 评论(0) 推荐(0) 编辑
摘要: 1. 一些基本概念 图1. 机器学习的基本过程 训练集(Training Set):为了研究一个变量(x)与另一个变量(y)的关系,而通过观察、测量等方式获得的一组数据。这组数据中收集了x和与之对应的y——一个数据对(x, y)。例如我们要研究房屋面积(x)和售价(y)之间的关系,每观察一套已出售的 阅读全文
posted @ 2017-05-19 14:30 Aaron_L 阅读(2298) 评论(0) 推荐(0) 编辑
摘要: 代价函数(有的地方也叫损失函数,Loss Function)在机器学习中的每一种算法中都很重要,因为训练模型的过程就是优化代价函数的过程,代价函数对每个参数的偏导数就是梯度下降中提到的梯度,防止过拟合时添加的正则化项也是加在代价函数后面的。在学习相关算法的过程中,对代价函数的理解也在不断的加深,在此 阅读全文
posted @ 2017-05-19 14:26 Aaron_L 阅读(1846) 评论(0) 推荐(0) 编辑
摘要: 1. 什么是逻辑回归? 许多人对线性回归都比较熟悉,但知道逻辑回归的人可能就要少的多。从大的类别上来说,逻辑回归是一种有监督的统计学习方法,主要用于对样本进行分类。 在线性回归模型中,输出一般是连续的,例如 y=f(x)=ax+by=f(x)=ax+b ,对于每一个输入的x,都有一个对应的y输出。模 阅读全文
posted @ 2017-05-19 14:15 Aaron_L 阅读(759) 评论(0) 推荐(0) 编辑