上一页 1 ··· 7 8 9 10 11 12 下一页
摘要: 2015-12-15 21:26:17刚学的java 做个总结:1.构造函数没有返回值。2.A对象调用Q的方法,Q方法里的变量就是A的变量Fraction add(Fraction f)在这个方法里体现的比较明显红色的fm就是调用者的fm这个构造函数里写this的原因就是与参数一个名字怕混淆当然了F... 阅读全文
posted @ 2015-12-15 21:34 奋斗中的菲比 阅读(243) 评论(0) 推荐(0) 编辑
摘要: 本文原创如需转载请注明出处阅读目录一.什么是函数间隔?二.什么是几何间隔?三.函数间隔与几何间隔的关系?四.硬间隔最大化五.学习的对偶算法一.函数间隔在图A,B,C三点,A离超平面是最远的,所以A被分类错误的可能性是最小的,相反C离超平面的距离是最近的,所以C被分类错误的可能性是最大的,这很好理解。... 阅读全文
posted @ 2015-11-27 15:15 奋斗中的菲比 阅读(4249) 评论(3) 推荐(2) 编辑
摘要: 阅读目录一.什么是支持向量?二.支持向量机的类型?三.支持向量机的思想?四.支持向量机名字的由来?五.各种支持向量机的学习策略?一.什么是支持向量?是一种二类分类的模型。它在自然语言中广泛应用于短语识别,词义消歧,文本自动分类和信息过滤等方面。二.支持向量机的类型?支持向量机分为三类:1.线性可分支... 阅读全文
posted @ 2015-11-24 22:23 奋斗中的菲比 阅读(726) 评论(0) 推荐(0) 编辑
摘要: 常用快捷键Shift+Enter:在当前行下插入新行,当光标正在一行的中间时才体现其价值Ctrl+Shift+Enter:在当前行上插入新行Ctrl+D:删除整行Ctrl+Alt+J:合并行,相当于vi中的JCtrl+Alt+UP/DOWN:向上/下复制行Alt+UP/DOWN:行向上/下移动F2:... 阅读全文
posted @ 2015-11-16 19:29 奋斗中的菲比 阅读(348) 评论(0) 推荐(0) 编辑
摘要: Support Vector Machines are an optimization problem. They are attempting to find a hyperplane that divides the two classes with the largest margin. Th... 阅读全文
posted @ 2015-11-16 19:29 奋斗中的菲比 阅读(1336) 评论(1) 推荐(3) 编辑
摘要: ---恢复内容开始---新编操作系统习题与解析4.1 知识点1:存储器管理的基本概念第4章 存储器管理 基本知识点:存储器管理的基本概念和相关技术;连续内存分配管理方式(单一连续、固定分区和动态分区分配)和非连续内存分配管理方式(基本分页、分段和段页式管理方式);虚拟存储器基本概念、3种虚拟存储管理... 阅读全文
posted @ 2015-11-03 21:27 奋斗中的菲比 阅读(2495) 评论(0) 推荐(0) 编辑
摘要: 决策树的剪枝决策树为什么要剪枝?原因就是避免决策树“过拟合”样本。前面的算法生成的决策树非常的详细而庞大,每个属性都被详细地加以考虑,决策树的树叶节点所覆盖的训练样本都是“纯”的。因此用这个决策树来对训练样本进行分类的话,你会发现对于训练样本而言,这个树表现堪称完美,它可以100%完美正确得对训练样... 阅读全文
posted @ 2015-11-03 19:20 奋斗中的菲比 阅读(7364) 评论(6) 推荐(0) 编辑
摘要: 声明:原创内容,如需转载请注明出处今天讲解的内容是:信息增益比,决策树的生成算法—ID3和C4.5我们昨天已经学习了什么是信息增益,并且通过信息增益来选择最优特征,但是用信息增益会出现偏向于选择取值多的特征。来解释下这句话。以最极端的情况举例,比如有6个样本,特征年龄的取值为5个值,19岁,20岁,... 阅读全文
posted @ 2015-11-01 19:52 奋斗中的菲比 阅读(6135) 评论(0) 推荐(1) 编辑
摘要: 声明:原创内容,如需转载请注明出处今天主要了解什么是决策树和如何计算信息增益决策树是一个基于分类问题的方法。根据不同的特征做出决策进行分类。下面举个例子,为母亲要给女儿找对象的例子。 女儿:多大年纪了? 母亲:26。 女儿:长的帅不帅? 母亲:挺帅的。 女儿:收入高不? 母亲:不算很高,... 阅读全文
posted @ 2015-10-31 13:53 奋斗中的菲比 阅读(763) 评论(1) 推荐(0) 编辑
摘要: 先说一下最大熵原理:保留各种可能性,不加入人为的猜想假设,也就是说当我们遇到不确定的事情,保留各种可能性,在这种情况下,预测的风险是最小的,概率分布最均匀(这个均匀是怎么回事一会说),信息熵是最大的最大熵认为,熵最大的模型(概率分布最均匀的)模型是最好的。比如说,明天的天气可能是,晴,雨,雪这三种,... 阅读全文
posted @ 2015-10-10 01:11 奋斗中的菲比 阅读(392) 评论(0) 推荐(0) 编辑
上一页 1 ··· 7 8 9 10 11 12 下一页