会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
//
// // //
努力的孔子
上一页
1
···
30
31
32
33
34
35
36
37
38
···
41
下一页
2019年4月25日
目标检测(1)-R-CNN
摘要: R-CNN全称为 Region-CNN,它是第一个成功地将深度学习应用到目标检测的算法,后续的改进算法 Fast R-CNN、Faster R-CNN都是基于该算法。 传统方法 VS R-CNN 传统的目标检测大多以图像识别为基础。一般是在图片上穷举出所有物体可能出现的区域框,然后对该区域框进行特征
阅读全文
posted @ 2019-04-25 10:33 努力的孔子
阅读(4032)
评论(0)
推荐(2)
编辑
2019年4月23日
超参数调优
摘要: 在神经网络中,有许多超参数需要设置,比如学习率,网络层数,神经元节点数 所谓超参数,就是不需要训练的参数,需要人为设定的参数。 这些超参数对模型的训练和性能都有很大影响,非常重要,那么这些超参数该怎么设定呢? 一般我们可以根据经验来设定,但是经验毕竟有限,而且也不科学。 验证数据 在模型训练时,我们
阅读全文
posted @ 2019-04-23 11:42 努力的孔子
阅读(2968)
评论(0)
推荐(0)
编辑
支持向量机 SVM
摘要: SVM,中文名叫支持向量机。 在深度学习出现以前,它是数据挖掘的宠儿; SVM具有十分完整的数据理论证明,但同时理论也相当复杂。 初识SVM 同其他分类算法一样,SVM分类也是寻找合适的决策边界,为方便理解,以二分类为例。 假设存在二分类样本,我们一定可以找到一个超平面将类别分开,但是通常会存在很多
阅读全文
posted @ 2019-04-23 11:36 努力的孔子
阅读(748)
评论(2)
推荐(1)
编辑
2019年4月20日
LDA 线性判别分析
摘要: 线性判别分析,简称LDA,是一种线性学习方法。 常用来降维,是一种有监督的降维方法,是基于最佳分类效果的降维方法。 核心思想 给定训练样本,带label,设法将样本投影到一条直线上,使得同类样例的投影尽可能接近,异类样例的投影尽可能远离; 在对新样本进行预测时,先将其投影到这条直线上,再根据投影点的
阅读全文
posted @ 2019-04-20 11:05 努力的孔子
阅读(1201)
评论(0)
推荐(0)
编辑
2019年4月19日
分类 - 模型评估
摘要: 对模型进行评估时,可以选择很多种指标,但不同的指标可能得到不同的结果,如何选择合适的指标,需要取决于任务需求。 正确率与错误率 正确率:正确分类的样本数/总样本数,accuracy 错误率:错误分类的样本数/总样本数,error 正确率+错误率=1 这两种指标最简单,也最常用 缺点 1. 不一定能反
阅读全文
posted @ 2019-04-19 16:44 努力的孔子
阅读(1643)
评论(0)
推荐(0)
编辑
2019年4月18日
特征选择
摘要: 特征选择顾名思义就是从众多特征中选出和目标相关的特征,它是机器学习中很重要的一个环节。 子集选择与评价 从众多特征中选出部分特征构成特征的一个子集,就叫子集选择, 子集特征是否能很好地表征目标,需要对子集特征进行评价。 子集选择可以有前向搜索、后向搜索和双向搜索三种方式。 前向搜索 假定给定特征集{
阅读全文
posted @ 2019-04-18 18:58 努力的孔子
阅读(837)
评论(0)
推荐(0)
编辑
集成学习-Adaboost 参数选择
摘要: 先看下ababoost和决策树效果对比 输出学习曲线 分析:随着样本数的增加,单决策树的预测精度稳定在0.5左右,是个弱分类器,而adaboost预测精度在0.85左右,明显高于单决策树,是个强分类器。 参数选择 上面的模型使用的是默认参数,其实还有优化的空间。 在集成学习中,参数调优一般是先选择框
阅读全文
posted @ 2019-04-18 11:47 努力的孔子
阅读(3555)
评论(0)
推荐(0)
编辑
sklearn-adaboost
摘要: sklearn中实现了adaboost分类和回归,即AdaBoostClassifier和AdaBoostRegressor, AdaBoostClassifier 实现了两种方法,即 SAMME 和 SAMME.R AdaBoostRegressor 用的 Adaboost.R2 框架参数 分类与
阅读全文
posted @ 2019-04-18 11:17 努力的孔子
阅读(2560)
评论(0)
推荐(0)
编辑
集成学习-Adaboost
摘要: Adaboost 中文名叫自适应提升算法,是一种boosting算法。 boosting算法的基本思想 对于一个复杂任务来说,单个专家的决策过于片面,需要集合多个专家的决策得到最终的决策,通俗讲就是三个臭皮匠顶个诸葛亮。 对于给定的数据集,学习到一个较弱的分类器比学习到一个强分类器容易的多,boos
阅读全文
posted @ 2019-04-18 10:19 努力的孔子
阅读(1070)
评论(0)
推荐(0)
编辑
2019年4月16日
random-numpy-tf 随机数
摘要: Random 生成单个随机数 # encoding:utf-8 import random ### 生成单元素 a = random.random() # 返回0-1之间的随机浮点数 print(a) # 0.2473362446838867 b = random.uniform(1, 10) #
阅读全文
posted @ 2019-04-16 08:58 努力的孔子
阅读(323)
评论(0)
推荐(0)
编辑
上一页
1
···
30
31
32
33
34
35
36
37
38
···
41
下一页
导航
博客园
首页
新随笔
新文章
联系
订阅
管理