摘要:
决策树本质就是从训练数据集中归纳出一组分类规则,通过训练与数据集矛盾较小的决策树,同时具有较好的泛化能力。 通常该算法是一个递归的选择最优特征,并根据该特征对训练数据集进行分割,使得对各个子数据集具有较好的分类的过程。最开始将所有特征都放置在根结点, 选择最优特征,按照特征将训练集进行划分,使各子集 阅读全文
摘要:
(1)朴素贝叶斯基本方法: 输入数据有:标记集合 y={c1,c2,...ck}, 特征向量x , 也即训练数据集T={(x1,y1),(x2,y2),....(xn,yn)} 朴素贝叶斯法通过训练数据集学习联合概率分布P(X,Y)(通过联合概率分布P(X,Y)进行不同条件概率的转换), 先验概率分 阅读全文
摘要:
这个算法较为简单,主要思想就是给定分好类的数据集,然后将新输入的数据集进入训练集中找到与之最相近的k类,然后将k类所属类别最多的一类作为新数据的分类结果。 注:k的取值对模型拟合效果和预测效果影响较大 其中距离函数有如下表示形式: 当上式的p为2时,也就是欧式距离;当上式p为1时,也就是曼哈顿距离。 阅读全文
摘要:
知识预备: 数据线性可分: 对于给定数据集T={(x1,y1),(x2,y2),...,(xn,yn)},;若存在平面wx+b=0将正实例点和负实例点正确划分到两侧,也就是对所有yi=+1的实例,都有wxi+b>0, 对于所有yi=-1的实例,都有都有wxi+b<0;那么就称数据集T为线性可分数据。 阅读全文
摘要:
numpy包: pandas包: math包: collection包: 其他: def aa(ali): for i in ali: i=i+1 yield i+5 b=aa([1,2,3,4]) [w for w in b] #返回[7,8,9,10] sys包: os包: assert用法: 阅读全文
摘要:
范数介绍:https://www.zhihu.com/question/20473040?utm_campaign=rss&utm_medium=rss&utm_source=rss&utm_content=title 首先介绍损失函数,它是用来估量你模型的预测值f(x)与真实值Y的不一致程度 主要 阅读全文