上一页 1 ··· 13 14 15 16 17 18 19 20 21 ··· 28 下一页

2017年12月28日

转朴素贝叶斯分类器的应用

摘要: 作者: 阮一峰 日期: 2013年12月16日 作者: 阮一峰 日期: 2013年12月16日 生活中很多场合需要用到分类,比如新闻分类、病人分类等等。 本文介绍朴素贝叶斯分类器(Naive Bayes classifier),它是一种简单有效的常用分类算法。 一、病人分类的例子 让我从一个例子开始 阅读全文

posted @ 2017-12-28 11:28 多一点 阅读(283) 评论(0) 推荐(0) 编辑

转贝叶斯推断及其互联网应用(一):定理简介

摘要: 作者: 阮一峰 作者: 阮一峰 日期: 2011年8月25日 日期: 2011年8月25日 贝叶斯推断及其互联网应用 作者:阮一峰 一、什么是贝叶斯推断 贝叶斯推断(Bayesian inference)是一种统计学方法,用来估计统计量的某种性质。 它是贝叶斯定理(Bayes' theorem)的应 阅读全文

posted @ 2017-12-28 11:26 多一点 阅读(280) 评论(0) 推荐(0) 编辑

Vim 使用入门快捷键

摘要: Vim 和 Emac 都是利器啊,前段时间决定熟悉一套跨平台的编辑器,以便在 Win,Mac,Ubuntu 下都有相同的编辑体验。 于是尝试了一下 Vim,使用了一段时间,确实比 UE 之类的要高效。Win 平台下有 gVim, Mac 下也有 MacVim。 Vim 的学习曲线确实有点陡峭,刚开始 阅读全文

posted @ 2017-12-28 00:00 多一点 阅读(301) 评论(0) 推荐(0) 编辑

2017年12月27日

从贝叶斯定理说开去

摘要: 简介 贝叶斯定理是18世纪英国数学家托马斯·贝叶斯(Thomas Bayes)提出得重要概率论理论。以下摘一段 wikipedia 上的简介: 所谓的贝叶斯定理源于他生前为解决一个“逆概”问题写的一篇文章,而这篇文章是在他死后才由他的一位朋友发表出来的。在贝叶斯写这篇文章之前,人们已经能够计算“正向 阅读全文

posted @ 2017-12-27 23:57 多一点 阅读(398) 评论(0) 推荐(0) 编辑

转特征值和特征向量

摘要: 介绍 特征向量和特征值在计算机视觉和机器学习中有许多重要的应用。众所周知的例子是PCA(主成分分析)进行降维或人脸识别是特征脸。特征向量和特征值的一个有趣应用在我的另一篇有关误差椭圆的博文中提到。此外,特征值分解形成协方差矩阵几何解释的基础。在这篇文章中,我将简单的介绍这个数学概念,并且展示如何手动 阅读全文

posted @ 2017-12-27 23:53 多一点 阅读(718) 评论(0) 推荐(0) 编辑

第四章 特征值与特征向量

摘要: §4.1 特征值与特征向量 §4.1.1特征值与特征向量的概念及其计算 定义1. 设A是数域P上的一个n阶矩阵,l是一个未知量, 称为A的特征多项式,记 ¦(l)=| lE-A|,是一个P上的关于 l 的n次多项式,E是单位矩阵。 ¦(l)=| lE-A|=ln+a1ln-1+…+an= 0是一个n 阅读全文

posted @ 2017-12-27 22:51 多一点 阅读(14361) 评论(0) 推荐(0) 编辑

numpy基础入门

摘要: 1、Numpy是什么 很简单,Numpy是Python的一个科学计算的库,提供了矩阵运算的功能,其一般与Scipy、matplotlib一起使用。其实,list已经提供了类似于矩阵的表示形式,不过numpy为我们提供了更多的函数。如果接触过matlab、scilab,那么numpy很好入手。 在以下 阅读全文

posted @ 2017-12-27 22:43 多一点 阅读(406) 评论(0) 推荐(0) 编辑

python range函数与numpy arange函数

摘要: 1.range()返回的是range object,而np.arange()返回的是numpy.ndarray() range尽可用于迭代,而np.arange作用远不止于此,它是一个序列,可被当做向量使用。 2.range()不支持步长为小数,np.arange()支持步长为小数 3.两者都可用于 阅读全文

posted @ 2017-12-27 15:52 多一点 阅读(2304) 评论(0) 推荐(0) 编辑

2017年12月26日

转悠望南山 Python闲谈(二)聊聊最小二乘法以及leastsq函数

摘要: 1 最小二乘法概述 自从开始做毕设以来,发现自己无时无刻不在接触最小二乘法。从求解线性透视图中的消失点,m元n次函数的拟合,包括后来学到的神经网络,其思想归根结底全都是最小二乘法。 1-1 “多线→一点”视角与“多点→一线”视角 最小二乘法非常简单,我把它分成两种视角描述: (1)已知多条近似交汇于 阅读全文

posted @ 2017-12-26 17:18 多一点 阅读(1084) 评论(0) 推荐(0) 编辑

2017年12月25日

numpy np.newaxis 的实用

摘要: np.newaxis 在使用和功能上等价于 None,其实就是 None 的一个别名。 1. np.newaxis 的实用 2. 索引多维数组的某一列时返回的是一个行向量 如果我索引多维数组的某一列时,返回的仍然是列的结构,一种正确的索引方式是: 如果想实现第二列和第四列的拼接(层叠): 当然更为简 阅读全文

posted @ 2017-12-25 17:57 多一点 阅读(22156) 评论(0) 推荐(0) 编辑

上一页 1 ··· 13 14 15 16 17 18 19 20 21 ··· 28 下一页

导航