08 2018 档案
摘要:用 scikit-learn 和 pandas 学习线性回归¶ from https://www.cnblogs.com/pinard/p/6016029.html 就算是简单的算法,也需要跑通整个流程,通过一个简单的回归的例子,可以看到: 数据的准备 ,数据的维度? 用哪个模型,如何训练,如何评价
阅读全文
摘要:主要参考 《统计学习方法》 《机器学习实战》 机器学习:从编程的角度去理解逻辑回归 逻辑回归, 有一种定义是这样的:逻辑回归其实是一个线性分类器,只是在外面嵌套了一个逻辑函数,主要用于二分类问题。这个定义明确的指明了逻辑回归的特点: 一个线性分类器 外层有一个逻辑函数 我们知道,线性回归的模型是求出
阅读全文
摘要:link : https://www.cyberciti.biz/faq/convert-mp3-files-to-wav-files-in-linux/ Install mpg321 or mpg123 Type the following command under Debian / Ubunt
阅读全文
摘要:参考 机器学习中常用的矩阵求导公式 再复杂一点的看 矩阵向量求导法则 矩阵求导好像从来没有学过,讲矩阵的课不讲求导,讲求导的课不讲矩阵。像维基百科什么的查找起来又费劲。其实在实际机器学习工作中,最常用的就是实值函数 y 对向量 x 求导。定义如下: 实值函数 y 对矩阵 X 求导:
阅读全文
摘要:参考 最小二乘法小结 机器学习:Python 中如何使用最小二乘法 什么是” 最小二乘法” 呢 定义:最小二乘法(又称最小平方法)是一种数学优化技术,它通过最小化误差的平方和寻找数据的最佳函数匹配。 作用:利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。
阅读全文
摘要:参考 信息熵是什么? 交叉熵损失函数原理详解 信息可以量化? 信息熵,信息熵,怎么看怎么觉得这个 “熵” 字不顺眼,那就先不看。我们起码知道这个概念跟信息有关系。而它又是个数学模型里面的概念,一般而言是可以量化的。所以,第一个问题来了:信息是不是可以量化? 起码直觉上而言是可以的,不然怎么可能我们觉
阅读全文
摘要:参考 机器学习中的目标函数、损失函数、代价函数有什么区别? 如何找出幸福感最强的人?什么人幸福感最强,是既有钱(拟合较好,不是最有钱)又活得轻松(模型复杂度低,简简单单生活)的中层阶级。 首先给出结论:损失函数和代价函数是同一个东西,目标函数是一个与他们相关但更广的概念,对于目标函数来说在有约束条件
阅读全文
摘要:0.矩阵表示一种变换,把它看成一列一列的列向量,矩阵变换相当于点不动,基变换,基坐标系变为矩阵的这些列向量。 1.相似矩阵,本质上还是同一个变换,坐标系换了,在坐标系a下的矩阵A,等同于坐标系b下的矩阵B。 P-1AP = B 2.特征值的求法 Ax =lmda x 特征值,特征向量,我们把一个矩阵
阅读全文
摘要:一道作业题: https://www.kaggle.com/c/speechlab-aug03 就是给你训练集,验证集,要求用GMM(混合高斯模型)预测 测试集的分类,这是个2分类的问题。 $ head train.txt dev.txt test.txt ==> train.txt <== 1.1
阅读全文
摘要:参考 SKlearn 库 EM 算法混合高斯模型参数说明及代码实现 和 sklearn.mixture.GaussianMixture 以前的推导内容: GMM 与 EM 算法 记录下常用的参数,以及函数。 参数说明 1. n_components: 混合高斯模型个数,默认为 1 2. covari
阅读全文
摘要:主要参考 K-means 聚类算法及 python 代码实现 还有 《机器学习实战》 这本书,当然前面那个链接的也是参考这本书,懂原理,会用就行了。 1、概述 K-means 算法是集简单和经典于一身的基于距离的聚类算法 采用距离作为相似性的评价指标,即认为两个对象的距离越近,其相似度就越大。 该算
阅读全文