一、线性回归

损失函数 https://blog.csdn.net/alw_123/article/details/82193535

正规方程解,  https://blog.csdn.net/alw_123/article/details/82825785#comments   

最小二乘法及算法代码  https://blog.csdn.net/qq_32864683/article/details/80368135

梯度下降讲解 https://www.cnblogs.com/wallacup/p/6017378.html

拟然函数 https://www.cnblogs.com/softlin/p/6219372.html?utm_source=itdadao&utm_medium=referral

 逻辑回归(二分类算法):https://www.sohu.com/a/236530043_466874

 softmax 回归(多分类算法)  https://zhuanlan.zhihu.com/p/62381502

 

二、KNN,k近邻算法。用于分类,也可以用于回归

https://baike.baidu.com/item/%E9%82%BB%E8%BF%91%E7%AE%97%E6%B3%95/1151153?fr=aladdin

https://blog.csdn.net/pengjunlee/article/details/82713047

https://blog.csdn.net/Mr_Lowbee/article/details/86557790

 kd-tree 查找最近邻  https://baike.baidu.com/item/kd-tree/2302515?fr=aladdin

  

三、决策树

  https://www.cnblogs.com/xiemaycherry/p/10475067.html

决策树基本概念,如何划分决策树,根据属性“纯度”来分割数据。纯度主要通过信息熵,gini系数,错误率来判断。 信息增益

当熵或者基尼值过小时,表示数据的纯度比较大。

选择信息增益最大的作为划分属性。

决策树三个主要算法:

ID3算法: 信息增益最大化

C4.5: 信息增益率

CART:基尼(Gini)系数.

数据特征较多,需要降维,用到算法

 
分类树和回归树的区别

分类回归树:

叶子节点的预测值一般为叶子节点中所有值的均值来作为当前叶子节点的预测值。所以在回归树中一般采用MSE作为树的评价指标,即均方差。
一般情况下,只会使用CART算法构建回归树。
分类树采用信息增益、信息增益率、基尼系数来评价树的效果,都是基于概率值进行判断的;而分类树的叶子节点的预测值一般为叶子节点中概率最大的类别作为当前叶子的预测值。

分类回归树算法---CAR:T  https://cloud.tencent.com/developer/article/1080843

分类回归树的缺陷:

 决策树的剪枝:

前置剪枝,后置剪枝   https://blog.csdn.net/am290333566/article/details/81187562

BGD SGD 梯度下降算法

批量梯度下降(BGD)、随机梯度下降(SGD)以及小批量梯度下降(MBGD)的理解  https://www.cnblogs.com/lliuye/p/9451903.html

  gbdt全称梯度下降树  https://www.cnblogs.com/bnuvincent/p/9693190.html

 

 四,集成学习

集成学习的思想是将若干个学习器(分类器&回归器)组合之后产生一个新学习器。弱分类器(weak learner)指那些分类准确率只稍微好于随机猜测的分类器(error rate < 0.5);
集成算法的成功在于保证弱分类器的多样性(Diversity)。而且集成不稳定的算法也能够得到一个比较明显的性能提升。
常见的集成学习思想有:Bagging ; Boosting ; Stacking。

Bagging 有放回抽样,分类器融合时,采用多数投票或者均值等。

随机森林RF  在Bagging策略的基础上进行修改后的一种算法。 https://blog.csdn.net/qq_34106574/article/details/82016442

1从样本集中用Bootstrap采样选出n个样本;
2从所有属性中随机选择K个属性,选择出最佳分割属性作为节点创建决策树;
3重复以上两步m次,即建立m棵决策树;
4这m个决策树形成随机森林,通过投票表决结果决定数据属于那一类。
随机森林RF推广:Extra Tree;Totally Random Trees Embedding(TRTE);Isolation Forest
 
提升学习(Boosting)是一种机器学习技术,可以用于回归和分类的问题,它每一步产生弱预测模型(如决策树),并加权累加到总模型中;如果每一步的弱预测模型的生成都是依据损失函数的梯度方式的,那么就称为梯度提升(Gradient boosting)
常见的模型有:
Adaboost;Gradient Boosting(GBT/GBDT/GBRT)

 

 五、聚类算法

五种主要聚类算法   https://blog.csdn.net/u011511601/article/details/81951939

 K-Means聚类(初始簇心敏感),二分 K-Means算法(弱化初值敏感问题),K-Means++算法(对中心点选择不同) https://blog.csdn.net/promisejia/article/details/88322330

Canopy聚类算法 https://blog.csdn.net/u011514201/article/details/53510069/

Mini Batch K-Means 算法

KNN分类算法和聚类算法的区别https://blog.csdn.net/LLDBSD/article/details/85219490

层次聚类算法(凝聚的层次聚类AGNES算法,分裂的层次聚类DIANA算法)   https://blog.csdn.net/qq_40859560/article/details/82797401

CURE算法(可以适应非球形的几何形状) https://blog.csdn.net/qq_40793975/article/details/83574309

BIRCH聚类算法原理  https://www.cnblogs.com/pinard/p/6179132.html

密度聚类算法:只要样本点的密度大于某个阈值,则将该样本添加到最近的簇中。这类算法可以克服基于距离的算法只能发现凸聚类的缺点,可以发现任意形状的聚类,而且对噪声数据不敏感。

DBSCAN;  https://blog.csdn.net/denghecsdn/article/details/82793940

密度最大值算法MDCA:https://blog.csdn.net/xueyingxue001/article/details/51966945/

谱聚类

均值偏移聚类算法; https://blog.csdn.net/u013761036/article/details/96140356

 DBSCAN聚类算法;

使用高斯混合模型(GMM)的期望最大化(EM)聚类;

 六、支持向量机SVM

一种二分类的算法

https://www.jiqizhixin.com/articles/2018-10-17-20

 SMO,

核函数:对不可以线性可分的,可以通过增加维度来找出超平面。为了解决维度过大的问题,引用核函数

 SVM可以用于图像识别,文字识别等

 

七、多标签多分类算法

 

多标签分类(multi-label classification)综述  https://www.cnblogs.com/cxf-zzj/p/10049613.html

https://www.cnblogs.com/Allen-rg/p/9492303.html

 

八、EM算法

机器学习算法总结(六)——EM算法与高斯混合模型  https://www.cnblogs.com/jiangxinyang/p/9278608.html

 http://blog.sciencenet.cn/blog-2970729-1191928.html

 

九、隐马尔可夫算法

隐马尔可夫链

https://www.cnblogs.com/bigmonkey/p/7230668.html

https://www.cnblogs.com/vpegasus/p/hmm.html

https://blog.csdn.net/hudashi/article/details/87867916

 

十、主题模型

主题模型是用来在大量文档中发现潜在主题的一种统计模型

 

https://blog.csdn.net/liuy9803/article/details/81029355

https://blog.csdn.net/jiayalu/article/details/100533184

 

 

参考人工智能(目录) 

 

posted on 2019-11-22 19:46  yuluoxingkong  阅读(227)  评论(0编辑  收藏  举报