Lv.的博客

随笔分类 -  AI(人工智能)

摘要:机器学习中的又一个利器,广泛用于Kaggle或类似的数据比赛。 机器学习中的又一个利器,广泛用于Kaggle或类似的数据比赛。 xlearn的优势: 1.通用性好,包括主流的算法(lr, fm, ffm 等),用户不用再切换于不同软件之间 2.性能好,测试 xLearn 可以比 libfm 快13倍 阅读全文
posted @ 2019-09-23 10:31 Avatarx 编辑
摘要:在数学中,ARG MAX(或ARGMAX)代表最大值,即给定参数的点集,给定表达式的值达到其最大值: 换一种说法, 是f(x)具有最大值M的x的值的集合。例如,如果f(x)是1- | x |,那么它在x = 0时达到其最大值1并且仅在那里, 所以.. 等价地,如果M是f的最大值,那么arg max是 阅读全文
posted @ 2019-09-23 10:05 Avatarx 编辑
摘要:RandomForest算法(有监督学习),可以根据输入数据,选择最佳特征组合,减少特征冗余;原理:由于随机决策树生成过程采用的Boostrap,所以在一棵树的生成过程并不会使用所有的样本,未使用的样本就叫(Out_of_bag)袋外样本,通过袋外样本,可以评估这个树的准确度,其他子树叶按这个原理评 阅读全文
posted @ 2019-09-18 15:08 Avatarx 编辑
摘要:import numpy as np from matplotlib import pyplot as plt # 创建线性回归数据集 def create_dataset(): X = 2 * np.random.rand(100, 1) # 结果加上高斯噪声 y = 4 + 3*X + np.r 阅读全文
posted @ 2019-09-15 19:39 Avatarx 编辑
摘要:1. 超级权限打开cmd.exe 2. pip install --upgrade setuptools 3. pip install -U --ignore-installed wrapt enum34 simplejson netaddr 4. pip install -i https://py 阅读全文
posted @ 2019-09-12 10:24 Avatarx 编辑
摘要:类别不平衡问题类别不平衡问题,顾名思义,即数据集中存在某一类样本,其数量远多于或远少于其他类样本,从而导致一些机器学习模型失效的问题。例如逻辑回归即不适合处理类别不平衡问题,例如逻辑回归在欺诈检测问题中,因为绝大多数样本都为正常样本,欺诈样本很少,逻辑回归算法会倾向于把大多数样本判定为正常样本,这样 阅读全文
posted @ 2019-09-09 09:06 Avatarx 编辑
摘要:OpenCV于11月20日发布了OpenCV-3.4.4和OpenCV-4.0.0。这些版本中有很多错误修复和其他更改。发布重点如下: OpenCV现在是C ++ 11库,需要符合C ++ 11标准的编译器。所需的最低CMake版本已提升至3.5.1。 很多来自OpenCV 1.x的C API已被删 阅读全文
posted @ 2019-09-08 21:57 Avatarx 编辑
摘要:最近发现使用git clone的速度比较慢,于是找到了办法分享给大家: 思路: git clone特别慢是因为github.global.ssl.fastly.net域名被限制了。 只要找到这个域名对应的ip地址,然后在hosts文件中加上ip–>域名的映射,刷新DNS缓存便可。 实施: 在网站 h 阅读全文
posted @ 2019-09-08 10:20 Avatarx 编辑
摘要:前面的话 最近决定要好好地学习一下OpenCV,Ubuntu系统上简单地搭建了OpenCV环境,(Windows的搭建方法移步到window10的搭建方法),千里之行始于足下,不积跬步无以至千里,在这里记录一下搭建过程,顺便整理了自动安装的脚本,以备下次环境自动化搭建,有部分依赖可能没有涵盖,有需要 阅读全文
posted @ 2019-09-07 19:00 Avatarx 编辑
摘要:https://www.e-learn.cn/content/python/2198918from sklearn.feature_selection import SelectKBest,f_classif #数据预处理过滤式特征选取SelectKBest模型 def test_SelectKBest(): X=[[1,2,3,4,5], [5,4,3,2,1],... 阅读全文
posted @ 2019-09-01 15:59 Avatarx 编辑
摘要:Kaggle上有免费供大家使用的GPU计算资源,本文教你如何使用它来训练自己的神经网络。 Kaggle是什么 Kaggle是一个数据建模和数据分析竞赛平台。企业和研究者可在其上发布数据,统计学者和数据挖掘专家可在其上进行竞赛以产生最好的模型。 在Kaggle,你可以: 参加竞赛赢取奖金。Kaggle 阅读全文
posted @ 2019-08-30 15:52 Avatarx 编辑
摘要:版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog.csdn.net/weixin_39777626/article/details/79673052 模型原型 partial_fit(X,y,classes= 阅读全文
posted @ 2019-08-29 15:43 Avatarx 编辑
摘要:一句话解释numpy.meshgrid()——生成网格点坐标矩阵。 关键词:网格点,坐标矩阵 网格点是什么?坐标矩阵又是什么鬼? 看个图就明白了: 图中,每个交叉点都是网格点,描述这些网格点的坐标的矩阵,就是坐标矩阵。 再看个简单例子 A,B,C,D,E,F是6个网格点,坐标如图,如何用矩阵形式(坐 阅读全文
posted @ 2019-08-27 16:45 Avatarx 编辑
摘要:版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog.csdn.net/kevinelstri/article/details/52622960 【scikit-learn】01:使用案例对sklearn库进行简 阅读全文
posted @ 2019-08-26 15:39 Avatarx 编辑
摘要:sklearn.datasets.make_blobs(n_samples=100, n_features=2, centers=3, cluster_std=1.0, center_box=(-10.0, 10.0), shuffle=True, random_state=None) 属性含义: 阅读全文
posted @ 2019-08-23 14:47 Avatarx 编辑
摘要:Bagging 从原始样本集中抽取训练集。每轮从原始样本集中使用Bootstraping(有放回)的方法抽取n个训练样本(在训练集中,有些样本可能被多次抽取到,而有些样本可能一次都没有被抽中)。共进行k轮抽取,得到k个训练集。(我们这里假设k个训练集之间是相互独立的,事实上不是完全独立) 每次使用一 阅读全文
posted @ 2019-08-22 11:07 Avatarx 编辑
摘要:sklearn集成方法 bagging 常见变体(按照样本采样方式的不同划分) Pasting:直接从样本集里随机抽取的到训练样本子集 Bagging:自助采样(有放回的抽样)得到训练子集 Random Subspaces:列采样,按照特征进行样本子集的切分 Random Patches:同时进行行 阅读全文
posted @ 2019-08-21 21:08 Avatarx 编辑
摘要:分类模型评估: 指标描述Scikit-learn函数 Precision 精准度 from sklearn.metrics import precision_score Recall 召回率 from sklearn.metrics import recall_score F1 F1值 from s 阅读全文
posted @ 2019-08-21 20:42 Avatarx 编辑
摘要:分类问题的评价指标是准确率,那么回归算法的评价指标就是MSE,RMSE,MAE、R-Squared。下面一一介绍 均方误差(MSE) MSE (Mean Squared Error)叫做均方误差。看公式 这里的y是测试集上的。 用 真实值-预测值 然后平方之后求和平均。 猛着看一下这个公式是不是觉得 阅读全文
posted @ 2019-08-21 20:33 Avatarx 编辑

点击右上角即可分享
微信分享提示