上一页 1 ··· 6 7 8 9 10 11 12 13 14 ··· 43 下一页
摘要: 形态学通常表示生物学的一个分支,研究动植物的形态和结构。图像中的形态学是数学形态学。简单来讲就是基于形状的一系列图像处理操作。 基本运算包括:二值腐蚀和膨胀、二值开闭运算、骨架抽取、极限腐蚀、击中击不中变换、形态学梯度、Top-hat变换、颗粒分析、流域变换、灰值腐蚀和膨胀、灰值开闭运算、灰值形态学 阅读全文
posted @ 2019-08-12 16:17 Austin_anheqiao 阅读(2657) 评论(0) 推荐(0) 编辑
摘要: 1、简述权值更新方法 (1)初始化权值分布; (2)找到误差最小的弱分类器; (3)计算弱分类器的权值; (4)更新下一轮样本的权值分布; (5)集合多个弱分类器成一个最终的强分类器。 2、为什么能快速收敛? 因为每轮训练后,都会增大上一轮训练错误的样本的权重,下一轮的分类器为了达到较低的分类误差, 阅读全文
posted @ 2019-08-12 14:50 Austin_anheqiao 阅读(887) 评论(0) 推荐(0) 编辑
摘要: 一、流程 基函数线性加权和得到最终的强分类器。每轮迭代得到一个弱分类器,这个分类器是在上一轮的残差基础上得到的。本轮就是要找一个cart树,使得本轮的损失函数值更加的小。 二、如何选择特征(就是如何生成cart树) 回归树:平方误差和最小化,对于特征A=a时,集合D的误差最小时,就选择这个特征值最为 阅读全文
posted @ 2019-08-11 22:16 Austin_anheqiao 阅读(703) 评论(0) 推荐(0) 编辑
摘要: 1、权值更新方法 (1)初始化权值分布; (2)找分类误差最小的弱分类器; (3)计算出该弱分类器的权值; (4)更新权值分布; (5)集合所有弱分类器得到最终的强分类器。 2、adaboost快速收敛为什么? 因为当前轮分错的样本的权重会在下一轮训练中得的提高,下一轮弱分类器为了达到较低的分类误差 阅读全文
posted @ 2019-08-11 21:43 Austin_anheqiao 阅读(149) 评论(0) 推荐(0) 编辑
摘要: 损失函数用来估量预测值和真实值的不一致程度。损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。模型的结构风险函数包括了经验风险项和正则项,通常可以表示成如下式子: 前面的均值函数表示的是经验风险函数,L代表的是损失函数,后面的ΦΦ是正则化项(regul 阅读全文
posted @ 2019-08-11 21:32 Austin_anheqiao 阅读(577) 评论(0) 推荐(0) 编辑
摘要: 什么是决策树? 定义在特征空间与类空间上的条件概率分布,决策树实际上是将特征空间划分成了互不相交的单元,每个从根到叶的路径对应着一个单元。决策树所表示的条件概率分布由各个单元给定条件下类的条件概率分布组成。实际中,哪个类别有较高的条件概率,就把该单元中的实例强行划分为该类别。 if-then的集合, 阅读全文
posted @ 2019-08-11 20:27 Austin_anheqiao 阅读(358) 评论(0) 推荐(0) 编辑
摘要: 一、简介 在GBDT的迭代中,假设我们前一轮迭代得到的强学习器是ft-1(x)损失函数是L(y,ft-1(x)) 我们本轮迭代的目标是学习到弱学习器ht(x),让本轮的损失L(t,ft-1(x)+ht(x))最小。 假如有个人30岁,我们首先用20岁去拟合,发现损失有10岁,这时我们用6岁去拟合剩下 阅读全文
posted @ 2019-08-11 18:03 Austin_anheqiao 阅读(405) 评论(0) 推荐(0) 编辑
摘要: 机器学习算法推导当中,有的时候能看到一个函数 ,这个函数代表什么意思? 代表的是指示函数(indicator function)。 它的含义是:当输入为True的时候,输出为1,输入为False的时候,输出为0。 例如: ,表示当 不等于 的时候输出为1,否则输出为0。 阅读全文
posted @ 2019-08-11 16:35 Austin_anheqiao 阅读(7180) 评论(0) 推荐(0) 编辑
摘要: 利用临近信息来标注类别的。是聚类算法中最简单的、搞笑的。 核心思想:指定k个初始质心作为聚类的类别,重复迭代值算法收敛。对于欧式空间的样本,误差平方和作为目标函数。 一、优缺点 优点:简单、快速,效果好,适用于高维; 缺点:很容易受到初始质心的影响,而且初始质心也很难选择。 二、k如何选取? 1、手 阅读全文
posted @ 2019-08-11 14:42 Austin_anheqiao 阅读(257) 评论(0) 推荐(0) 编辑
摘要: KD树算法是先对数据集进行建模,然后搜索最近邻,最后一步是预测。 KD树中的K指的是样本特征的维数。 一、KD树的建立 m个样本n维特征,计算n个特征的方差,取方差最大的第k维特征作为根节点。选择第k维特征的中位数作为切分点,小于中位数的放左子树,大于中位数的放右子树,递归生成。 举例 有二维样本6 阅读全文
posted @ 2019-08-10 22:18 Austin_anheqiao 阅读(1353) 评论(0) 推荐(0) 编辑
上一页 1 ··· 6 7 8 9 10 11 12 13 14 ··· 43 下一页