上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 52 下一页
摘要: 机器学习牛人博客 机器学习实战之SVM 三种SVM的对偶问题 拉格朗日乘子法和KKT条件 支持向量机通俗导论(理解SVM的三层境界) 解密SVM系列(一):关于拉格朗日乘子法和KKT条件 解密SVM系列(二):SVM的理论基础 解密SVM系列(三):SMO算法原理与实战求解 (一)关于拉格朗日乘子法 阅读全文
posted @ 2018-01-29 16:15 Vae永Silence 阅读(641) 评论(0) 推荐(0) 编辑
摘要: 机器学习实战之logistic回归 test5.py logRegres.py 阅读全文
posted @ 2018-01-28 12:25 Vae永Silence 阅读(310) 评论(0) 推荐(0) 编辑
摘要: Anaconda(3-5.0.1,Python3.6)下载链接:https://pan.baidu.com/s/1bqFwLMB 密码:37ih Pycharm(community-2017.3.3)下载链接:https://pan.baidu.com/s/1bqeOYy7 密码:91ds Open 阅读全文
posted @ 2018-01-19 15:25 Vae永Silence 阅读(4377) 评论(0) 推荐(0) 编辑
摘要: 中科院计算技术研究所博士招生:http://admission.ucas.ac.cn/info/ZhaoshengDanweiDetail/9adf9e50-424b-44c8-b2dc-900ef9344373/8013222018 中科院计算技术研究所:http://www.ict.ac.cn/ 阅读全文
posted @ 2018-01-15 20:12 Vae永Silence 阅读(180) 评论(0) 推荐(0) 编辑
摘要: 从香农熵到手推KL散度:一文带你纵览机器学习中的信息论: 信息论与信息熵是 AI 或机器学习中非常重要的概念,我们经常需要使用它的关键思想来描述概率分布或者量化概率分布之间的相似性。在本文中,我们从最基本的自信息和信息熵到交叉熵讨论了信息论的基础,再由最大似然估计推导出 KL 散度而加强我们对量化分 阅读全文
posted @ 2018-01-10 17:39 Vae永Silence 阅读(651) 评论(0) 推荐(0) 编辑
摘要: 机器学习实战第三章决策树 阅读全文
posted @ 2017-12-27 11:16 Vae永Silence 阅读(301) 评论(0) 推荐(0) 编辑
摘要: Python3.6.3下修改代码中def classify0(inX,dataSet,labels,k)函数的classCount.iteritems()为classCount.items(),另外print在Python新版本下是函数,print后面需加上一对括号,否则执行会报错。 classif 阅读全文
posted @ 2017-12-25 11:24 Vae永Silence 阅读(856) 评论(0) 推荐(0) 编辑
摘要: 本文应用的python3.6.3及其对应的Numpy、Scipy、matplotlib计算模块的cp36版本,其中Numpy是需要MKL版本的Numpy,这是后续安装Scipy的需要(本机系统win7_64)。 机器学习中python3.6.3及其对应的Numpy、Scipy、matplotlib模 阅读全文
posted @ 2017-12-25 10:57 Vae永Silence 阅读(1339) 评论(0) 推荐(0) 编辑
摘要: 原文链接 《机器学习实战》第二章k-近邻算法,自己实现时遇到的问题,以及解决方法。做个记录。 1.写一个kNN.py保存了之后,需要重新导入这个kNN模块。报错:no module named kNN. 解决方法:1.将.py文件放到 site_packages 目录下 2.在调用文件中添加sys. 阅读全文
posted @ 2017-12-15 15:35 Vae永Silence 阅读(860) 评论(0) 推荐(0) 编辑
摘要: python下载链接 Numpy下载链接 python中Numpy包的安装及使用 Numpy包的安装 准备工作 以上准备工作准备完毕之后,进行Numpy安装,先进入whl安装包的存放目录。比如在C盘: 1 再使用命令行安装: 1 至此,Numpy的安装完成。 Numpy使用举例 1 2 结果输出为一 阅读全文
posted @ 2017-12-04 15:48 Vae永Silence 阅读(1427) 评论(0) 推荐(0) 编辑
上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 52 下一页