上一页 1 2 3 4 5 6 7 8 9 10 ··· 52 下一页
摘要: 主成分分析PCA 机器学习实战之PCA test13.py pca.py 阅读全文
posted @ 2018-03-26 17:20 Vae永Silence 阅读(475) 评论(0) 推荐(0) 编辑
摘要: FP Tree算法原理总结 在Apriori算法原理总结中,我们对Apriori算法的原理做了总结。作为一个挖掘频繁项集的算法,Apriori算法需要多次扫描数据,I/O是很大的瓶颈。为了解决这个问题,FP Tree算法(也称FP Growth算法)采用了一些技巧,无论多少数据,只需要扫描两次数据集 阅读全文
posted @ 2018-03-24 10:18 Vae永Silence 阅读(263) 评论(0) 推荐(0) 编辑
摘要: test12.py 阅读全文
posted @ 2018-03-23 17:23 Vae永Silence 阅读(535) 评论(0) 推荐(0) 编辑
摘要: votesmart下载 https://pypi.python.org/pypi/py-votesmart test11.py 阅读全文
posted @ 2018-03-21 22:42 Vae永Silence 阅读(785) 评论(0) 推荐(0) 编辑
摘要: 机器学习实战之K-Means算法 test10.py kMeans.py 阅读全文
posted @ 2018-03-08 12:23 Vae永Silence 阅读(545) 评论(0) 推荐(1) 编辑
摘要: 机器学习实战之树回归 机器学习实战 ch09 问题解决办法 最近在学习《机器学习实战(Machine Learning in Action)》,因为个人比较喜欢Python 3,而这本书里面的代码都是通过Python 2实现的,所以自己在调试的时候会改写成Python 3。 在前几章里问题都不是很大 阅读全文
posted @ 2018-02-28 16:29 Vae永Silence 阅读(1023) 评论(1) 推荐(0) 编辑
摘要: 线性回归,加权回归推导过程 一、普通线性回归(OLS) 损失函数: J(w)=1n∑i=1n(yi−w∗xi)2=1n||Y−X∗w||2 其中:Y、w、xi为向量,X为矩阵。对该损失函数求解如下,即为对J(w)函数求w的偏导: 需要用到的矩阵求导公式为: dBAdA=BT dATBdA=B dAT 阅读全文
posted @ 2018-02-22 17:36 Vae永Silence 阅读(576) 评论(0) 推荐(0) 编辑
摘要: Adaboost算法原理分析和实例+代码(简明易懂)(转载) 一、AdaBoost简介 1 1 二、AdaBoost算法过程 给定训练数据集:,其中用于表示训练样本的类别标签,i=1,...,N。Adaboost的目的就是从训练数据中学习一系列弱分类器或基本分类器,然后将这些弱分类器组合成一个强分类 阅读全文
posted @ 2018-02-07 07:24 Vae永Silence 阅读(673) 评论(0) 推荐(0) 编辑
摘要: 【机器学习详解】SMO算法剖析 转载请注明出处:http://blog.csdn.net/luoshixian099/article/details/51227754 CSDN−勿在浮沙筑高台 本文力求简化SMO的算法思想,毕竟自己理解有限,无奈还是要拿一堆公式推来推去,但是静下心看完本篇并随手推导 阅读全文
posted @ 2018-02-03 22:56 Vae永Silence 阅读(1793) 评论(0) 推荐(0) 编辑
摘要: 解密SVM系列(二):SVM的理论基础 原文博主讲解地太好了 收藏下 解密SVM系列(三):SMO算法原理与实战求解 支持向量机通俗导论(理解SVM的三层境界) 上节我们探讨了关于拉格朗日乘子和KKT条件,这为后面SVM求解奠定基础,本节希望通俗的细说一下原理部分。 一个简单的二分类问题如下图: 我 阅读全文
posted @ 2018-01-31 16:39 Vae永Silence 阅读(624) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 10 ··· 52 下一页