随笔分类 -  Machine Learning

摘要:机器学习常用框架 本文仅是我个人为了记录在学习机器学习过程中使用的各个软件工具,以便于有整体的理解 先转载一个图,我觉得概括的很好: 来源:https://blog.csdn.net/u014410989/article/details/89947128 Pandas 来源:https://www. 阅读全文
posted @ 2019-10-28 00:44 别再闹了 阅读(5199) 评论(0) 推荐(1) 编辑
摘要:如何在Python中快速画图——使用Jupyter notebook的魔法函数(magic function)matplotlib inline 先展示一段相关的代码: 什么是魔法函数呢(magic function)? %matplotlib inline是一个魔法函数(Magic Functio 阅读全文
posted @ 2019-10-28 00:05 别再闹了 阅读(2869) 评论(0) 推荐(0) 编辑
摘要:![](https://img2018.cnblogs.com/blog/1490151/201910/1490151-20191020104520559-730692241.jpg) ![](https://img2018.cnblogs.com/blog/1490151/201910/1490151-20191020104521927-2075264171.jpg) 阅读全文
posted @ 2019-10-20 10:45 别再闹了 阅读(148) 评论(0) 推荐(0) 编辑
摘要:![](https://img2018.cnblogs.com/blog/1490151/201910/1490151-20191020104410768-1125845240.jpg) ![](https://img2018.cnblogs.com/blog/1490151/201910/1490151-20191020104423278-331910160.jpg) ![](https://i 阅读全文
posted @ 2019-10-20 10:44 别再闹了 阅读(118) 评论(0) 推荐(0) 编辑
摘要:![](https://img2018.cnblogs.com/blog/1490151/201910/1490151-20191020104313991-2107108164.jpg) ![](https://img2018.cnblogs.com/blog/1490151/201910/1490151-20191020104332018-1908415522.jpg) ![](https://... 阅读全文
posted @ 2019-10-20 10:43 别再闹了 阅读(173) 评论(0) 推荐(0) 编辑
摘要:机器学习 正则化(岭回归、lasso)和前向逐步回归 观看本文之前,您也许可以先看一下后来写的一篇补充:https://www.cnblogs.com/jiading/p/12104854.html 本文代码均来自于《机器学习实战》 这三种要处理的是同样的问题,也就是数据的特征数量大于样本数量的情况 阅读全文
posted @ 2019-10-19 14:28 别再闹了 阅读(5166) 评论(0) 推荐(0) 编辑
摘要:机器学习 感知机模型 为什么学完了SVM甚至是神经网络模型之后才看感知机?因为emmm不知道为什么大脑里闪过了这个词,上网搜了一下,应该是之前翻李航的书时候看见的名词,本着物尽其用的想法就看了一下感知机的原理,还是有些收获的~ 有一位博主写的很好!我就不再造轮子了,直接转载一下,再加上一些我自己的理 阅读全文
posted @ 2019-10-19 10:34 别再闹了 阅读(713) 评论(0) 推荐(0) 编辑
摘要:SVM 核函数 在研究了一天的SVM核函数后,我顿悟了一个道理: 研究和使用核函数的人,从一开始的目的就是把data分开而已。高维和映射,都是原来解释操作合理性的,但根本不是进行这一操作的原因 我为什么会这么想?我们举一个例子,就说径向基函数核(RBF)吧,按理来说,它的映射应该是和高斯分布或者径向 阅读全文
posted @ 2019-10-17 23:33 别再闹了 阅读(2189) 评论(0) 推荐(0) 编辑
摘要:机器学习 SVM理论 理论知识 SVM是在神经网络模型及CNN出现之前很火的一种分类模型。它有很好的泛化能力。 线性可分支持向量机:当data线性可分时使用 如果两类数据是线性可分的,那么如果垂直n维超平面做一个投影面,则这两类数据一定可以投影到低维空间中且还是可分的。 线性可分SVM中不会出现在分 阅读全文
posted @ 2019-10-16 15:05 别再闹了 阅读(455) 评论(0) 推荐(0) 编辑
摘要:![](https://img2018.cnblogs.com/blog/1490151/201910/1490151-20191016132702501-620053663.jpg) ![](https://img2018.cnblogs.com/blog/1490151/201910/1490151-20191016132718468-534420594.jpg) ![](https://im 阅读全文
posted @ 2019-10-16 13:27 别再闹了 阅读(708) 评论(0) 推荐(0) 编辑
摘要:https://minhaskamal.github.io/DownGit/ /home 阅读全文
posted @ 2019-10-08 00:38 别再闹了 阅读(1266) 评论(0) 推荐(0) 编辑
摘要:原文地址:https://yq.aliyun.com/articles/667928 在公众号之前的文章中,已经介绍了在Jupyter Notebook中设置主题以及输出代码文件到pdf文件中,本文来继续介绍jupyter notebook中一些实际的技巧。 本次要介绍的两个功能是: (1)针对 j 阅读全文
posted @ 2019-10-07 20:43 别再闹了 阅读(1510) 评论(0) 推荐(0) 编辑
摘要:原文来自:https://blog.csdn.net/dlhlsc/article/details/84309410 jupyter的调试是通过python自带的pdb库来实现的。 下面讲一下在notebook中如何进行调试 1.首先需要import pdb 2.然后在import后写入语句: pd 阅读全文
posted @ 2019-10-04 13:11 别再闹了 阅读(13473) 评论(0) 推荐(1) 编辑
摘要:[转载]神经网络偏置项(bias)的设置及作用 原文来自:https://www.cnblogs.com/shuaishuaidefeizhu/p/6832541.html 1、什么是bias? 偏置单元(bias unit),在有些资料里也称为偏置项(bias term)或者截距项(interce 阅读全文
posted @ 2019-10-03 22:30 别再闹了 阅读(18323) 评论(0) 推荐(1) 编辑
摘要:机器已经安装了CUDA 9.1,驱动为390.58,我补装了对应的cudnn,并且测试通过,但是在anaconda环境下,用conda install tensorflow gpu=1.12后,运行sess = tf.Session()时报错: tensorflow.python.framework 阅读全文
posted @ 2019-09-30 13:08 别再闹了 阅读(5903) 评论(0) 推荐(0) 编辑
摘要:参数的标准化与归一化 注:中文资料中从英文文献中学习,提到normalization和standardization时候,往往将其翻译为“标准化”和“归一化”。但是很坑的一点是,由于翻译软件也没有很好的区分两者,所以几乎所有人都将两者混为一谈,甚至A文章对于“标准化”和“归一化”翻译的对应和B文章是 阅读全文
posted @ 2019-09-23 21:38 别再闹了 阅读(5271) 评论(0) 推荐(0) 编辑
摘要:机器学习笔记[入门版] 本文是吴恩达《机器学习》的笔记,由于课程内容较为基础,所以本文对于许多数学知识有些欠缺 多变量线性回归 1. 非线性函数线性化 这种情况下,特征的缩放就变得很重要(因为在平方甚至立方的情况下,特征的值会放大很多) 也不一定只要平方,开方也可以: 正规方程 相比梯度下降法,可以 阅读全文
posted @ 2019-09-23 01:03 别再闹了 阅读(471) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2019-09-21 12:54 别再闹了 阅读(200) 评论(0) 推荐(0) 编辑
摘要:![](https://img2018.cnblogs.com/blog/1490151/201909/1490151-20190920225856704-1791212283.jpg) ![](https://img2018.cnblogs.com/blog/1490151/201909/1490151-20190920225859206-441059086.jpg) ![](https://i 阅读全文
posted @ 2019-09-20 22:59 别再闹了 阅读(632) 评论(0) 推荐(0) 编辑