摘要: 参考资料 <PYTHON_MACHINE_LEARNING> chapter3 A Tour of Machine Learning Classifers Using Scikit-learn 引言 在我们进行分类的时,所取样本中的特征值一般都分布在实数域,但是我们想得到的往往是一个在 [0,1] 阅读全文
posted @ 2018-05-09 19:40 jude_python 阅读(13215) 评论(0) 推荐(0) 编辑
摘要: 程序本地地址:ex2data2_regularized.py 编者注:本文采用梯度下降法来求解的logistic回归,关于其思想以及编程原理见本人之前文章《梯度下降法求解线性回归的python实现及其结果可视化》(https://zhuanlan.zhihu.com/p/30562194),在这里不 阅读全文
posted @ 2018-05-09 15:49 jude_python 阅读(1380) 评论(0) 推荐(0) 编辑
摘要: 本文为个人笔记,只记了重要内容,不适合新手入手 线性回归 样本(x(i),y(i)),i∈1,2,…,m(x(i),y(i)),i∈1,2,…,m x(i)=(x(i)1,x(i)2,…,x(i)n)x(i)=(x1(i),x2(i),…,xn(i)) ,假设 x(i)x(i) 具有 nn 个特征 阅读全文
posted @ 2018-05-09 15:31 jude_python 阅读(306) 评论(0) 推荐(0) 编辑
摘要: 编者注:本文采用梯度下降法来求解的logistic回归,关于其思想以及编程原理见本人之前文章《梯度下降法求解线性回归的python实现及其结果可视化》(https://zhuanlan.zhihu.com/p/30562194),在这里不再赘述。 01 非线性决策边界的logistic回归拟合 常规 阅读全文
posted @ 2018-05-09 15:06 jude_python 阅读(5363) 评论(0) 推荐(2) 编辑
摘要: 介绍 logistic regression是一种最基本的分类算法。它的模型为,其中。 其代价函数。 对于二分类问题,y的取值为0和1,这里,我们设定为y=1概率。当其大于等于0.5时,我们预测结果为1,当其小于0.5时,我们预测结果为0。 使用梯度下降算法 迭代公式:其中。推导过程见下图。 矢量化 阅读全文
posted @ 2018-05-09 14:52 jude_python 阅读(378) 评论(0) 推荐(0) 编辑
摘要: 线性回归 介绍 为了防止过度拟合,正则化是一种不错的思路。能够使得获得的边界函数更加平滑。更好的模拟现实数据,而非训练样本。 方法 可以说,regularization是添加惩罚,使得参数接近于零,这里1<=j<=n,也即不对进行regularization。 正规化后的代价函数。则该代价函数梯度见 阅读全文
posted @ 2018-05-09 14:51 jude_python 阅读(2707) 评论(0) 推荐(0) 编辑
摘要: 逻辑回归(logistic regression) 1.用来解决归类问题(只是由于历史上的原因取了回归的名字) 2.二分归类(binary classification) 定义:对于输入,输出值不连续,而是两个离散的值,eg:{0,1} 方法:利用线性回归,将大于0.5的输出预测值设为1,小于0.5 阅读全文
posted @ 2018-05-09 11:19 jude_python 阅读(349) 评论(0) 推荐(0) 编辑
摘要: 转至:云不知深处的博客: https://blog.csdn.net/pakko/article/details/37527799 总结了线性回归的理论部分,下面我们以浦东塘桥的二手房数据来实践线性回归。 数据及代码连接下载,工具使用Octave。 1,数据获取 从网站爬到数据,并整理成我们需要的。 阅读全文
posted @ 2018-05-09 10:31 jude_python 阅读(186) 评论(0) 推荐(0) 编辑