影醉阏轩窗

衣带渐宽终不悔,为伊消得人憔悴。
扩大
缩小
上一页 1 ··· 8 9 10 11 12 13 14 15 16 ··· 20 下一页

2017年11月2日

StanFord ML 笔记 第五部分

摘要: 1.朴素贝叶斯的多项式事件模型: 趁热打铁,直接看图理解模型的意思:具体求解可见下面大神给的例子,我这个是流程图。 在上篇笔记中,那个最基本的NB模型被称为多元伯努利事件模型(Multivariate Bernoulli Event Model,以下简称 NB-MBEM)。该模型有多种扩展,一种是在 阅读全文

posted @ 2017-11-02 04:30 影醉阏轩窗 阅读(335) 评论(0) 推荐(0) 编辑

2017年11月1日

大数定律和中心极限定律

摘要: 看了《概率论与数理统计》上面说了大数定律和中心极限定律的推到。。。。没时间去弄公式推到,现在大概了解,之后用到再去一步步推到。 中心极限定理: 设随机变量X1,X2,......Xn,......独立同分布,并且具有有限的数学期望和方差:E(Xi)=μ,D(Xi)=σ20(k=1,2....),则对 阅读全文

posted @ 2017-11-01 22:30 影醉阏轩窗 阅读(2137) 评论(0) 推荐(0) 编辑

先验概率、后验概率、似然函数的理解

摘要: 注释:最近一直看到先验后验的说法,一直不懂,这次查了资料记录一下。 1.先验和后验的区别: A.简单的了解两个概率的含义 先验概率可理解为统计概率,后验概率可理解为条件概率。 设定背景:酒至半酣,忽阴云漠漠,骤雨将至。 情景一: “天不会下雨的,历史上这里下雨的概率是20%” 先验概率 “但阴云漠漠 阅读全文

posted @ 2017-11-01 21:49 影醉阏轩窗 阅读(3727) 评论(0) 推荐(1) 编辑

概率密度函数、概率分布函数、概率质量函数

摘要: 1.概率密度函数 1.1. 定义 如果对于随机变量X的分布函数F(x),存在非负函数f(x),使得对于任意实数有 则称X为连续型随机变量,其中F(x)称为X的概率密度函数,简称概率密度。(f(x)>=0,若f(x)在点x处连续则F(x)求导可得)f(x)并没有很特殊的意义,但是通过其值得相对大小得知 阅读全文

posted @ 2017-11-01 17:58 影醉阏轩窗 阅读(21226) 评论(0) 推荐(8) 编辑

高维高斯分布的简述

摘要: 标准的一元高斯分布概率密度函数是: 如果有另外一个随机变量,它和是相互独立的,那么,它们的联合概率密度函数是: 那么,如果用和组成一个随机向量,形如: 那么,的密度函数就是: 为了让形式更一般化,设: 概率密度函数关系里可知: 注释:这里笔误||A|| >>>|A| 是指A的矩阵 概率密度函数间的关 阅读全文

posted @ 2017-11-01 17:25 影醉阏轩窗 阅读(732) 评论(0) 推荐(0) 编辑

协方差和相关系数的概念和含义

摘要: 1.协方差: 在概率论中,两个随机变量 X 与 Y 之间相互关系,大致有下列3种情况: 当 X, Y 的联合分布像上图那样时,我们可以看出,大致上有: X 越大 Y 也越大, X 越小 Y 也越小,这种情况,我们称为“正相关”。 当X, Y 的联合分布像上图那样时,我们可以看出,大致上有:X 越大Y 阅读全文

posted @ 2017-11-01 15:36 影醉阏轩窗 阅读(1260) 评论(0) 推荐(0) 编辑

StanFord ML 笔记 第四部分

摘要: 第四部分: 1.生成学习法 generate learning algorithm 2.高斯判别分析 Gaussian Discriminant Analysis 3.朴素贝叶斯 Navie Bayes 4.拉普拉斯平滑 Navie Bayes 一、生成学习法generate learning al 阅读全文

posted @ 2017-11-01 12:59 影醉阏轩窗 阅读(265) 评论(0) 推荐(0) 编辑

StanFord ML 笔记 第三部分

摘要: 第三部分: 1.指数分布族 2.高斯分布 >>>最小二乘法 3.泊松分布 >>>线性回归 4.Softmax回归 指数分布族: 结合Ng的课程,在看这篇博文:http://blog.csdn.net/acdreamers/article/details/44663091 泊松分布: 这里是一个扩展, 阅读全文

posted @ 2017-11-01 01:02 影醉阏轩窗 阅读(200) 评论(0) 推荐(0) 编辑

2017年10月31日

StanFord ML 笔记 第二部分

摘要: 本章内容: 1.逻辑分类与回归 sigmoid函数概率证明 >>>回归 2.感知机的学习策略 3.牛顿法优化 4.Hessian矩阵 牛顿法优化求解: 这个我就不记录了,看到一个非常完美的说明+演示+实际操作:http://www.matongxue.com/madocs/205.html#/mad 阅读全文

posted @ 2017-10-31 19:11 影醉阏轩窗 阅读(196) 评论(0) 推荐(0) 编辑

StanFord ML 笔记 第一部分

摘要: 本章节内容: 1.学习的种类及举例 2.线性回归,拟合一次函数 3.线性回归的方法: A.梯度下降法 >>>批量梯度下降、随机梯度下降 B.局部线性回归 C.用概率证明损失函数(极大似然函数) 监督学习:有实际的输入和输出,给出标准答案做参照。比如:回归的运算,下面有例子。 非监督学习:内有标准答案 阅读全文

posted @ 2017-10-31 01:42 影醉阏轩窗 阅读(419) 评论(0) 推荐(0) 编辑

上一页 1 ··· 8 9 10 11 12 13 14 15 16 ··· 20 下一页

导航

/* 线条鼠标集合 */ /* 鼠标点击求赞文字特效 */ //带头像评论