上一页 1 ··· 36 37 38 39 40 41 42 43 44 ··· 56 下一页
摘要: 随机森林:是一个包含多个决策树的分类器, 并且其输出的类别是由个别树输出的类别的众数而定。随机森林对回归的结果在内部是取得平均但是并不是所有的回归都是取的平均,有些是取的和。 随机森林里的随机 极限树/极端随机树里的随机 样本随机 特征随机 参数随机 模型随机(ID3 ,C4.5) 特征随机 参数随 阅读全文
posted @ 2019-03-04 19:08 nxf_rabbit75 阅读(3597) 评论(0) 推荐(1)
摘要: 1. 导入csv文件 这三种方法中最后一种最简单,不过花费时间比较长一点,第一种最麻烦,不过用时最短。这个可以通过ipython中的magic函数%%timeit来看。 2. 导入txt文件 数据: 将数据转为DataFrame格式,代码如下: 参考文献: 【1】numpy.loadtxt() 阅读全文
posted @ 2019-03-03 21:20 nxf_rabbit75 阅读(3487) 评论(0) 推荐(0)
摘要: numpy.loadtxt(fname, dtype=, comments='#', delimiter=None, converters=None, skiprows=0, usecols=None, unpack=False, ndmin=0) frame要读取的文件、文件名或生成器; dtyp 阅读全文
posted @ 2019-03-03 21:18 nxf_rabbit75 阅读(3320) 评论(0) 推荐(0)
摘要: contour:轮廓,等高线 1.为等高线上注明等高线的含义: cs = plt.contour(x, y, z) plt.clabel(cs, inline=True, fontsize=10)#inline=True,表示高度写在等高线上 2.plt.contourf 与 plt.contour 阅读全文
posted @ 2019-03-02 21:38 nxf_rabbit75 阅读(5824) 评论(1) 推荐(1)
摘要: np.r_:按列连接两个矩阵,就是把两矩阵上下相加,要求列数相等,类似于pandas中的concat() np.c_:按行连接两个矩阵,就是把两矩阵左右相加,要求行数相等,类似于pandas中的merge() import numpy as np a = np.array([1, 2, 3]) b 阅读全文
posted @ 2019-03-02 21:19 nxf_rabbit75 阅读(621) 评论(0) 推荐(0)
摘要: numpy提供的numpy.meshgrid()函数可以让我们快速生成坐标矩阵X,Y 语法:X,Y = numpy.meshgrid(x, y)输入:x,y,就是网格点的横纵坐标列向量(非矩阵)输出:X,Y,就是坐标矩阵。 输出: X = [[0 1 2] [0 1 2]] Y = [[0 0 0] 阅读全文
posted @ 2019-03-02 21:13 nxf_rabbit75 阅读(307) 评论(0) 推荐(0)
摘要: 特征工程:将所有数据拼接到一起做特征,等到处理完,再按索引拆分数据 1.数据分析 查看标签分布:发现valid与testa、testb的分布相似,说明valid与testa的查询时间比较接近,作为验证集线下比较可信. 2.修正数据类型、缺失值 修正空的query_prediction为'{}';将l 阅读全文
posted @ 2019-03-02 16:52 nxf_rabbit75 阅读(760) 评论(0) 推荐(0)
摘要: 一、简介 全称:eXtreme Gradient Boosting 作者:陈天奇 基础:GBDT 所属:boosting迭代型、树类算法 适用范围:回归,分类,排序 xgboost工具包:sklearn xgboost链接 | xgboost工具包(中文)链接 | xgboost工具包(英文)链接 阅读全文
posted @ 2019-03-02 09:45 nxf_rabbit75 阅读(2256) 评论(0) 推荐(1)
摘要: 1.调试处理 2.为超参数选择合适的范围 3.超参数在实践中调整:熊猫与鱼子酱 4.正则化网络的激活函数 5.将batch norm拟合进神经网络 6. 为什么Batch Norm会起作用? 7.测试集怎么用Batch Norm? 也就是说在测试集中,gamma和beta值都是训练集训练得到的值,而 阅读全文
posted @ 2019-03-01 18:50 nxf_rabbit75 阅读(196) 评论(0) 推荐(0)
摘要: 一、简介 Boosting 是一类算法的总称,这类算法的特点是通过训练若干弱分类器,然后将弱分类器组合成强分类器进行分类。为什么要这样做呢?因为弱分类器训练起来很容易,将弱分类器集成起来,往往可以得到很好的效果。俗话说,"三个臭皮匠,顶个诸葛亮",就是这个道理。这类 boosting 算法的特点是各 阅读全文
posted @ 2019-03-01 17:01 nxf_rabbit75 阅读(791) 评论(0) 推荐(0)
上一页 1 ··· 36 37 38 39 40 41 42 43 44 ··· 56 下一页