摘要:
代码中用了bs4和requests这两个包,这里主要提供下代码,视频教程我建议去https://www.bilibili.com/video/av14109284/?p=1观看,个人觉得课程很棒! 这里存在一个小问题就是写数据到excel中这里的代码只能写一页数据进去,后面会报错因为sheet.wr 阅读全文
摘要:
一、纲要 支持向量机基础及优化目标 支持向量机的直观理解 核函数 二、内容详述 1、支持向量机基础以及优化目标 支持向量机(Support Vector Machine)与逻辑回归和神经网络相比,在学习复杂的非线性方程时提供了一种更为清晰,更为强大的方式。这部分我们就从逻辑回归一点点修改来得到本质上 阅读全文
摘要:
一、纲要 线性回归的正规方程解法 局部加权线性回归 二、内容详述 1、线性回归的正规方程解法 线性回归是对连续型的数据进行预测。这里讨论的是线性回归的例子,对于非线性回归先不做讨论。这部分内容我们用的是正规方程的解法,理论内容在之前已经解释过了,正规方程为θ = (XT·X)-1·XT·y。值得注意 阅读全文
摘要:
当看到这部分内容的时候我是激动的,因为它终于能跟我之前学习的理论内容联系起来了,这部分内容就是对之前逻辑回归理论部分的代码实现,所以如果有不甚理解的内容可以返回对照着理论部分来理解,下面我们进入主题 logistic regression 一、sigmoid函数 在之前的理论部分我们知道,如果我们需 阅读全文
摘要:
决策树原理:从数据集中找出决定性的特征对数据集进行迭代划分,直到某个分支下的数据都属于同一类型,或者已经遍历了所有划分数据集的特征,停止决策树算法。 每次划分数据集的特征都有很多,那么我们怎么来选择到底根据哪一个特征划分数据集呢?这里我们需要引入信息增益和信息熵的概念。 一、信息增益 划分数据集的原 阅读全文
摘要:
看了上一篇内容之后,相信对K近邻算法有了一个清晰的认识,今天的内容——手写数字识别是对上一篇内容的延续,这里也是为了自己能更熟练的掌握k-NN算法。 我们有大约2000个训练样本和1000个左右测试样本,训练样本所在的文件夹是trainingDigits,测试样本所在的文件夹是testDigits。 阅读全文
摘要:
前一周学习了一些理论的知识,虽然懂了原理,但感觉真要写起代码来还是摸不着头脑,所以接下来的几天都打算在代码方面下一番功夫。由于接触python不久,且能力有限,难免有些错误的或者理解不到位的地方,希望读者不吝指正! K-近邻算法(k-NN)的基本原理:存在一个样本数据集合,也叫训练样本集,并且样本集 阅读全文
摘要:
今天的这部分内容比较简单,没有复杂的数学公式,学了这一周多的理论,接下来的几天准备python实战啦!先来看今天的部分吧。 一、纲要 初学者设计机器学习系统的建议 误差分析 偏斜类的定义及误差度量 二、内容详述 1、初学者设计机器学习系统的建议 在部分内容中,Andrew Ng老师给出的建议是:初学 阅读全文
摘要:
一、纲要 纠正较大误差的方法 模型选择问题之目标函数阶数的选择 模型选择问题之正则化参数λ的选择 学习曲线 二、内容详述 1、纠正较大误差的方法 当我们运用训练好了的模型来做预测时,发现会有较大的误差,这时我们有哪些解决方法呢? (1)获得更多的训练集 (2)减少特征的数量 (3)增加特征的数量 ( 阅读全文
摘要:
一、纲要 神经网络代价函数 反向传播(BackPropagation)算法 梯度检验 参数随机初始化 总结 二、内容详述 1、神经网络代价函数 在逻辑回归中,我们的输出只有一个变量,是标量,就是一个y,但是在神经网络中我们可以有K个输出量,所以神经网络中的输出y是个K*1的向量,所以这里需要在逻辑回 阅读全文