上一页 1 ··· 31 32 33 34 35 36 37 38 39 ··· 50 下一页

2019年8月12日

支持向量机(SVM)

该文被密码保护。 阅读全文

posted @ 2019-08-12 10:09 农夫三拳有點疼 阅读(2) 评论(0) 推荐(0) 编辑

GBDT与XGBOOST对比

摘要: Boosting方法实际上是采用加法模型与前向分布算法。Adaboost算法也可以用加法模型和前向分布算法来表示。以决策树为基学习器的提升方法称为提升树(Boosting Tree)。对分类问题决策树是CART分类树,对回归问题决策树是CART回归树。 1、前向分布算法 引入加法模型 在给定了训练数 阅读全文

posted @ 2019-08-12 10:07 农夫三拳有點疼 阅读(575) 评论(0) 推荐(0) 编辑

Adaboost与RandomForest对比

摘要: 1、集成学习概述 集成学习算法可以说是现在最火爆的机器学习算法,参加过Kaggle比赛的同学应该都领略过集成算法的强大。集成算法本身不是一个单独的机器学习算法,而是通过将基于其他的机器学习算法构建多个学习器并集成到一起。集成算法可以分为同质集成和异质集成,同质集成是值集成算法中的个体学习器都是同一类 阅读全文

posted @ 2019-08-12 10:06 农夫三拳有點疼 阅读(1038) 评论(0) 推荐(0) 编辑

2019年8月9日

CNN

摘要: 一、卷积神经网络的基本概念 卷积神经网络与普通神经网络的区别在于,卷积神经网络包含了一个由卷积层和子采样层(池化层)构成的特征抽取器。在卷积神经网络的卷积层中,一个神经元只与部分邻层神经元连接。在CNN的一个卷积层中,通常包含若干个特征图(featureMap),每个特征图由一些矩形排列的的神经元组 阅读全文

posted @ 2019-08-09 10:53 农夫三拳有點疼 阅读(192) 评论(0) 推荐(0) 编辑

2019年8月6日

手推LR及SVM

摘要: LR: LR的目标是最小化模型分布和经验分布之间的交叉熵,LR基于概率理论中的极大似然估计。首先假设样本为0或者1的概率可以用sigmoid函数来表示,然后通过极大似然估计的方法估计出参数的值,即让模型产生的分布P(Y|X)尽可能接近训练数据的分布。 SVM: SVM的目标是最大化分类间隔(硬SVM 阅读全文

posted @ 2019-08-06 15:00 农夫三拳有點疼 阅读(1874) 评论(0) 推荐(1) 编辑

上一页 1 ··· 31 32 33 34 35 36 37 38 39 ··· 50 下一页

导航