随笔分类 -  机器学习

摘要:我把代码和爬好的数据放在了git上,欢迎大家来参考 https://github.com/linyi0604/linyiSearcher 我是在 manjaro linux下做的, 使用python3 语言, 爬虫部分涉及到 安装ChromeDriver 可以参考我之前写的博文。 建立索引部分参考: 阅读全文
posted @ 2019-04-19 22:50 稀里糊涂林老冷 阅读(9329) 评论(1) 推荐(1) 编辑
摘要:转载 https://blog.csdn.net/itchosen/article/details/77200322 各种神经网络优化算法:从梯度下降到Adam方法 转载 https://blog.csdn.net/itchosen/article/details/77200322 各种神经网络优化 阅读全文
posted @ 2019-03-18 08:53 稀里糊涂林老冷 阅读(1237) 评论(0) 推荐(0) 编辑
摘要:参考这篇文章: https://baijiahao.baidu.com/s?id=1621054167310242353&wfr=spider&for=pc https://blog.csdn.net/jinping_shi/article/details/52433975 参考这篇文章: http 阅读全文
posted @ 2019-03-14 19:41 稀里糊涂林老冷 阅读(454) 评论(0) 推荐(0) 编辑
摘要:https://www.zybuluo.com/yxd/note/611571 https://zhuanlan.zhihu.com/p/29765582 gbdt 在看统计学习方法的时候 理解很吃力。 参考了以上两篇文章,作者写的非常好。 冒昧转载过来。 机器学习-一文理解GBDT的原理-2017 阅读全文
posted @ 2019-03-05 08:53 稀里糊涂林老冷 阅读(741) 评论(0) 推荐(0) 编辑
摘要:转载了这篇文章 博主写的非常明白 https://blog.csdn.net/LoseInVain/article/details/81098502 https://blog.csdn.net/LoseInVain/article/details/81098502 https://blog.csdn 阅读全文
posted @ 2019-02-25 09:11 稀里糊涂林老冷 阅读(1429) 评论(0) 推荐(0) 编辑
摘要:参考这篇博文 博主写的非常好! https://blog.csdn.net/program_developer/article/details/80737724 参考这篇博文 博主写的非常好! https://blog.csdn.net/program_developer/article/detai 阅读全文
posted @ 2019-02-20 15:41 稀里糊涂林老冷 阅读(2525) 评论(2) 推荐(0) 编辑
摘要:作者:Double_V_ 来源:CSDN 原文:https://blog.csdn.net/qq_25737169/article/details/79048516 版权声明:本文为博主原创文章,转载请附上博文链接! 作者:Double_V_ 来源:CSDN 原文:https://blog.csdn 阅读全文
posted @ 2019-02-20 14:49 稀里糊涂林老冷 阅读(1934) 评论(0) 推荐(0) 编辑
摘要:为什么要做归一化或者标准化? 主要是为了调整样本数据每个维度的量纲,让每个维度数据量纲相同或接近。 为什么要调整量纲?目的是什么? 1 量纲不一样的情况是什么? 比如一个2分类任务,预测一批零件是合格品还是残次品。 这个零件把他假象成是细长细长的棍子,有两个维度特征, 半径都是 1 cm左右, 长度 阅读全文
posted @ 2019-02-16 14:22 稀里糊涂林老冷 阅读(6126) 评论(1) 推荐(3) 编辑
摘要:在神经网络中,广泛的使用反向传播和梯度下降算法调整神经网络中参数的取值。 梯度下降和学习率: 假设用 θ 来表示神经网络中的参数, J(θ) 表示在给定参数下训练数据集上损失函数的大小。 那么整个优化过程就是寻找一个参数θ, 使得J(θ) 的值最小, 也就是求J(θ) 的最小值 损失函数J(θ)的梯 阅读全文
posted @ 2018-06-07 16:31 稀里糊涂林老冷 阅读(1502) 评论(0) 推荐(0) 编辑
摘要:git: https://github.com/linyi0604/MachineLearning/tree/master/07_tensorflow/ 阅读全文
posted @ 2018-06-06 22:10 稀里糊涂林老冷 阅读(2516) 评论(0) 推荐(0) 编辑
摘要:经典的损失函数 交叉熵 1 交叉熵: 分类问题中使用比较广泛的一种损失函数, 它刻画两个概率分布之间的距离 给定两个概率分布p和q, 交叉熵为: H(p, q) = -∑ p(x) log q(x) 当事件总数是一定的时候, 概率函数满足: 任意x p(X = x) ∈[0, 1] 且 Σ p(X= 阅读全文
posted @ 2018-06-06 16:02 稀里糊涂林老冷 阅读(2451) 评论(0) 推荐(0) 编辑
摘要:git: https://github.com/linyi0604/MachineLearning/tree/master/07_tensorflow/ 阅读全文
posted @ 2018-06-06 15:06 稀里糊涂林老冷 阅读(426) 评论(0) 推荐(0) 编辑
摘要:计算图 tensorflow是一个通过计算图的形式来表示计算的编程系统tensorflow中每一个计算都是计算图上的一个节点节点之间的边描述了计算之间的依赖关系 张量 tensor张量可以简单理解成多维数组零阶张量为 标量 scala 也就是一个数n阶张量可以理解为n维数组 张量没有保存真正的数字 阅读全文
posted @ 2018-06-06 15:02 稀里糊涂林老冷 阅读(406) 评论(0) 推荐(0) 编辑
摘要:git: https://github.com/linyi0604/MachineLearning 数据集被我下载到本地,可以去我的git上拿数据集 XGBoost提升分类器 属于集成学习模型 把成百上千个分类准确率较低的树模型组合起来 不断迭代,每次迭代生成一颗新的树 下面 对泰坦尼克遇难预测使用 阅读全文
posted @ 2018-05-08 16:53 稀里糊涂林老冷 阅读(2293) 评论(0) 推荐(0) 编辑
摘要:git: https://github.com/linyi0604/MachineLearning 阅读全文
posted @ 2018-05-08 11:26 稀里糊涂林老冷 阅读(2432) 评论(0) 推荐(0) 编辑
摘要:git: https://github.com/linyi0604/MachineLearning分别使用词袋法和nltk自然预言处理包提供的文本特征提取 1 from sklearn.feature_extraction.text import CountVectorizer 2 import nltk 3 # nltk.download("punkt") 4 # nltk.downl... 阅读全文
posted @ 2018-05-08 10:24 稀里糊涂林老冷 阅读(3076) 评论(0) 推荐(0) 编辑
摘要:git:https://github.com/linyi0604/MachineLearning 阅读全文
posted @ 2018-05-07 09:21 稀里糊涂林老冷 阅读(2577) 评论(0) 推荐(0) 编辑
摘要:git:https://github.com/linyi0604/MachineLearning 通过比较 经过正则化的模型 泛化能力明显的更好啦 阅读全文
posted @ 2018-05-06 20:16 稀里糊涂林老冷 阅读(3197) 评论(0) 推荐(0) 编辑
摘要:一次线性函数拟合曲线的结果,是欠拟合的情况: 下面进行建立2次线性回归模型进行预测: 二次线性回归模型拟合的曲线: 拟合程度明显比1次线性拟合的要好 下面进行4次线性回归模型: 四次线性模型预测准确率为百分之百, 但是看一下拟合曲线,明显存在不合逻辑的预测曲线, 在样本点之外的情况,可能预测的非常不 阅读全文
posted @ 2018-05-01 09:35 稀里糊涂林老冷 阅读(10500) 评论(2) 推荐(1) 编辑
摘要:python3学习使用api 使用到联网的数据集,我已经下载到本地,可以到我的git中下载数据集 git: https://github.com/linyi0604/MachineLearning 代码: 生成的准确率图: 阅读全文
posted @ 2018-04-30 19:45 稀里糊涂林老冷 阅读(4009) 评论(0) 推荐(0) 编辑