摘要: 多绚烂的花,多美妙的季节; 没有一朵花,能留住它的季节。 我也是一样,不停地追寻, 我终究要失去的 回到logistic回归最大似然函数这里,现在我们用牛顿法来最大化这个对数似然函数。 牛顿法求零点 牛顿法本是用来求函数 零点 的一个方法,一个函数的零点就是指使这个函数等于零那个自变量的取值点。 牛 阅读全文
posted @ 2019-09-26 13:15 客忆安排 阅读(1548) 评论(0) 推荐(0) 编辑
摘要: 岁月难得沉默, 夕阳挂在墙头舍不得我。 感知机算法 如果我们限制取值在$ [0,1]$ 之间的函数采取如下形式, $$ \begin{equation} g(z)=\left\{ \begin{array}{ll}{1} & {\text { if } z \geq 0} \\ {0} & {\te 阅读全文
posted @ 2019-09-26 10:12 客忆安排 阅读(236) 评论(0) 推荐(0) 编辑
摘要: Toast to the ones here today, Toast to the ones we lost on the way。 现在我们讨论分类问题。主要关注目标变量为0,1的二分类问题,1为正例,0为负例。目标变量在分类问题中又称为标签。 logistic回归函数与概率模型 我们用之前回归 阅读全文
posted @ 2019-09-26 10:08 客忆安排 阅读(1604) 评论(0) 推荐(0) 编辑
摘要: numpy数组广播 numpy数组广播的一般规则是在列,在维度按照 右对齐 后,两个数组是兼容的。这里兼容的意思是说, 要么在对齐维度上相当具有相同的维数,要么必须有一个为一。而且为一的会被广播为不为一的。 举个例子。下面这两组数字为两个数组在各个维度的维数,按上面规则广播,有, 在一维数组的情况下 阅读全文
posted @ 2019-09-25 11:13 客忆安排 阅读(428) 评论(0) 推荐(0) 编辑
摘要: 这里大家可能已经发现了,到目前为止,我们没有提到通常课本里所说的什么乱七八糟的正态分布啦,误差项啦,这其实是属于线性回归的概率解释。现在我们就来看一看线性回归的概率模型解释。 线性回归的概率解释 我们讲线性回归时用到了均方误差损失,但没有提到为什么损失函数要具有均方误差的形式。概率解释就给你其中一个 阅读全文
posted @ 2019-09-23 20:14 客忆安排 阅读(1271) 评论(0) 推荐(0) 编辑
摘要: 再谈最小平方问题 有了矩阵求导工具后,我们可以寻找最小化损失函数的参数值的 闭式解 (closed form solution)。首先我们先把这个损失函数表达成向量的形式。 把每个训练样本放在矩阵一行,可以得到一个$m \times n$ 设计矩阵$X$ (design matrix) ,即 $$ 阅读全文
posted @ 2019-09-23 14:44 客忆安排 阅读(601) 评论(0) 推荐(0) 编辑
摘要: 是什么 考虑如下文本分类问题:训练集为n条文本特征[^m],文本类别对,$\{(\mathbf{t}^i,c^i)\}_{i=1}^n$[^n] 现给定文本特征$\mathbf{t}$,要求判定它的类别。 朴素贝叶斯做法就是算使得$p(\mathbf{t},c)$最大的$c^ $作为$\mathbf 阅读全文
posted @ 2019-09-22 22:06 客忆安排 阅读(156) 评论(0) 推荐(0) 编辑
摘要: 机器学习入门(三)之 线性回归番外篇(矩阵求导) 笑容发自真心 现到脸上却变得虚假 所以我也就不用龇牙 声音发自灵魂 走到喉咙却变得含混 所以我不说话 求解线性回归问题,最优参数的第二种方法是对损失函数直接求导,并令其导数为零。这就需要对矩阵求导。下面我们先来介绍矩阵求导。大跃进喽。。。。 矩阵导数 阅读全文
posted @ 2019-09-22 21:52 客忆安排 阅读(509) 评论(0) 推荐(0) 编辑
摘要: 2019年9月22日18:22:52 2019年9月22日18:59:51 对于给定居住面积和卧室数量预测房价的问题。我们可以建立一个线性回归模型。假设具有如下形式, $$ h(x)=\sum_{i=0}^{n} \theta_{i} x_{i}=\theta^{T} x $$ 其中$\theta_ 阅读全文
posted @ 2019-09-22 19:02 客忆安排 阅读(217) 评论(0) 推荐(0) 编辑
摘要: 2019年9月22日13:52:59 2019年9月22日14:40:25 给定由一批输入输出数据对$\left(x^{(i)}, y^{(i)}\right) $ 组成的训练数据集,有监督学习的目标是学到一个较好的从输入$x^{(i)} $ 到输出$y^{(i)} $ 的映射。用来预测一个新的输入 阅读全文
posted @ 2019-09-22 18:17 客忆安排 阅读(204) 评论(0) 推荐(0) 编辑