上一页 1 ··· 13 14 15 16 17 18 19 20 21 ··· 43 下一页
摘要: bagging是从样本集中抽样出子训练集,训练处多个基模型,然后通过投票表决决定最重的越策结果;而boost是每一轮都是用的是同一个数据集,但是样本的权重不同,训练多个基分类器,最终将多个基分类器组合场强分类器。 bagging是又放回的抽样,而boosting使用的是同一个样本集,只是样本的权重不 阅读全文
posted @ 2019-07-21 17:29 Austin_anheqiao 阅读(920) 评论(0) 推荐(0) 编辑
摘要: ID3决策树优先选择信息增益大的属性来对样本进行划分,但是这样的分裂节点方法有一个很大的缺点,当一个属性可取值数目较多时,可能在这个属性对应值下的样本只有一个或者很少个,此时它的信息增益将很高,ID3会认为这个属性很适合划分,但实际情况下叫多属性的取值会使模型的泛化能力较差,所以C4.5不采用信息增 阅读全文
posted @ 2019-07-21 17:00 Austin_anheqiao 阅读(1606) 评论(0) 推荐(0) 编辑
摘要: 基本概念: 损失函数:计算的是一个样本的误差 代价函数:是整个训练集上所有样本误差的平均 目标函数:代价函数 + 正则化项 实际应用: 损失函数和代价函数是同一个东西,目标函数是一个与他们相关但更广的概念。 即最优化经验风险和结构风险,而这个函数就被称为目标函数 阅读全文
posted @ 2019-07-20 21:38 Austin_anheqiao 阅读(461) 评论(0) 推荐(0) 编辑
摘要: 一、决策树 1、优点 易于理解和解释,可视化; 测试数据集时候,运行速度快; 易于扩展; 2、缺点 缺失数据处理困难; 容易过拟合; 忽略属性之间的相关性; ID3算法计算信息增益时结果偏向数值比较多的特征; 基于条件概率,容易理解不同属性对结果的影响程度。但因为只要追踪叶子节点的属性,所以很容易受 阅读全文
posted @ 2019-07-20 21:21 Austin_anheqiao 阅读(401) 评论(0) 推荐(0) 编辑
摘要: 1、欧氏距离 两个点的所有维度的坐标差的平方和最后开根号; 2、曼哈顿距离 两个点的坐标差的绝对值求和; 两个点在标准坐标系上的绝对轴距总和; dis=abs(x1-x2)+(y1-y2) 3、切比雪夫 各个坐标距离(绝对值)的最大值; 坐标差的绝对值的最大值; dis=max(abs(x1-x2) 阅读全文
posted @ 2019-07-20 17:37 Austin_anheqiao 阅读(511) 评论(0) 推荐(0) 编辑
摘要: &&和||的短路运算,是指如果在进行前面的表达式的运算过程,通过判断已经明确的知道整个表达式的结果,那么就不会进行后面表达式的运算判断。 表达式1 || 表达式2 || 表达式3...|| 表达式n,如果表达式1的运算结果为true,则整个表达式的结果为true,同时不会再对后面的表达式2、表达式3 阅读全文
posted @ 2019-07-20 11:01 Austin_anheqiao 阅读(839) 评论(0) 推荐(0) 编辑
摘要: 思路: 利用递归累加,逻辑运算符的短路运算。 阅读全文
posted @ 2019-07-20 10:58 Austin_anheqiao 阅读(253) 评论(0) 推荐(0) 编辑
摘要: 思路: 首先确定一共有5张牌,最多可以有四个王,王用0表示。 先排序,找出0的个数; 从第一个非0的数字开始遍历,两数之间的差值用0来代替,当0用完之后还有其他的数字之间差值大于1的,那就返回false。 碰到相同的数字返回false; 阅读全文
posted @ 2019-07-20 10:00 Austin_anheqiao 阅读(909) 评论(0) 推荐(0) 编辑
摘要: 一次只学习一个任务,大部分机器学习都属于单任务学习。 多任务学习:把多个相关的任务放在一起学习,同时学习多个任务。 对于复杂的问题,可以分解为简单的相互独立的子问题来解决,然后再合并结果,得到最初复杂问题的结果。这样是错误的。因为现实中很多问题都不能分解成一个一个独立的问题,就算可以分解,子问题之间 阅读全文
posted @ 2019-07-19 15:14 Austin_anheqiao 阅读(1582) 评论(0) 推荐(1) 编辑
摘要: 智能指针就是类,当超出了类的作用域,类会自动调用析构函数,析构函数释放资源,就不需要再手动释放资源了。 1、auto_ptr(cpp11抛弃) 所有权模式; 当p1指针赋值给了p2,相当于这块内存的所有权给了p2,在访问p1就会报错。 缺点:内存崩溃问题。 auto_ptr操作 2、unique_p 阅读全文
posted @ 2019-07-18 20:44 Austin_anheqiao 阅读(238) 评论(0) 推荐(0) 编辑
上一页 1 ··· 13 14 15 16 17 18 19 20 21 ··· 43 下一页