随笔分类 - 人工智能-机器学习
摘要:前言 在刚入门的时候,我们很容易被这些词语弄得眼花缭乱,如人工智能、机器学习、深度学习及强化学习等等。它们之间互相联系,却有一定区别。我们学习人工智能AI,需要对这些词语有一定的概念,不然,研究了这么久的算法和知识,却连我们在干什么都不知道,就十分不好,也会影响我们学习的进度。 人工智能 人工智能(
阅读全文
摘要:KNN:K-NearestNeighbor–K最近邻(原理) K最近邻,就是k个最近的邻居的意思,即:每个样本都可以用他最近的k个邻居来代表。核心思想:如果一个样本在特征空间中的K个最相邻的样本,并且最相邻样本中的大多数属于某一个类别(该样本也属于这个类别,并具有该类别上样本的特性)KNN很大程度上
阅读全文
摘要:3.2 层次方法 下图,上面是从左到右由5个簇逐渐合并成1个簇的过程,下面是从右到左由一个簇逐渐分裂成5个簇的过程 AGENS算法 最后面一句话是重点,假设有<A,B>,<C,D>两个簇,这两个簇的距离是由A-C,A-D,B-C,B-D最短的距离来表示的 练习
阅读全文
摘要:k-medoids算法 对上面图形的解释 第一幅图:原来p属于Oj的(实线),当Orandom代替了Oj,p属于Oi了(虚线);第二幅图:原来p属于Oj的(实线),当Orandom代替了Oj,p属于Oj了(虚线); 如果P的中心点发生了变化,则代价Cpjh为P到现在中心点的距离与P到之前中心点距离的
阅读全文
摘要:3.1划分方法 聚类算法距离——k-means算法 k-means算法 输入:簇的数;数据集;输出:k个簇方法:从数据集中找出k个对象当作原始的簇心; k-means算法的再次解读 k-means聚类算法练习-1 下面10个样本进行簇划分 使用代码计算连续值属性距离 import numpy as
阅读全文
摘要:1、聚类分析概述 聚类目前常用来做粗分类,粗分类完再细分类一般用其他算法实现 自顶向下法:分裂;自低向上法:聚合 2、相似性计算方法 2.1连续型属性的相似性计算方法 2.2二值离散型属性的相似性计算方法 2.3多值离散型属性的相似性计算方法 2.4混合类型属性的相似性计算方法 则d(1,2) =
阅读全文
摘要:【卷积】卷积的理解 准备转自:点击打开链接 1.知乎上排名最高的解释 首先选取知乎上对卷积物理意义解答排名最靠前的回答。 不推荐用“反转/翻转/反褶/对称”等解释卷积。好好的信号为什么要翻转?导致学生难以理解卷积的物理意义。 这个其实非常简单的概念,国内的大多数教材却没有讲透。 直接看图,不信看不懂
阅读全文
摘要:想象一下,目标函数是一座山的高度,约束是镶嵌在山上的一条曲线如下图。(渣画技看看就好了) 你为了找到曲线上的最低点,就从最低的等高线(0那条)开始网上数。数到第三条,等高线终于和曲线有交点了(如上图所示)。因为比这条等高线低的地方都不在约束范围内,所以这肯定是这条约束曲线的最低点了。 而且约束曲线在
阅读全文
摘要:1.松弛变量 现在我们已经把一个本来线性不可分的文本分类问题,通过映射到高维空间而变成了线性可分的。就像下图这样: 圆形和方形的点各有成千上万个(毕竟,这就是我们训练集中文档的数量嘛,当然很大了)。现在想象我们有另一个训练集,只比原先这个训练集多了一篇文章,映射到高维空间以后(当然,也使用了相同的核
阅读全文
摘要:1.正定矩阵和半正定矩阵 若所有特征值均大于零,则称为正定。 定义:A是n阶方阵,如果对任何非零向量x,都有>0,其中表示x的转置,就称A为正定矩阵。 性质: 正定矩阵的行列式恒为正; 实对称矩阵AA正定当且仅当AA与单位矩阵合同; 两个正定矩阵的和是正定矩阵; 正实数与正定矩阵的乘积是正定矩阵。
阅读全文
摘要:怎样区分线性和非线性 1.线性Line,是指量与量之间按照比例成直线关系,在数学上可理解为一阶导数是个常数; 非线性non-line则指不按照比例不成直线关系,一节导数不为常数。 2.线性可以认为是1次曲线,比如比如y=ax+b ,即成一条直线 非线性可认为是2次以上的曲线,比如y=ax^2+bx+
阅读全文