摘要:
取至:机器学习算法原理与编程实践(郑捷) # -*- coding: utf-8 -*-# Filename : matrix05.pyimport operatorfrom numpy import * eps = 1.0e-6 # 误差量 # 矩阵的特征值和特征向量A = mat([[8,1,6 阅读全文
摘要:
参考资料 <PYTHON_MACHINE_LEARNING> chapter3 A Tour of Machine Learning Classifers Using Scikit-learn 引言 在我们进行分类的时,所取样本中的特征值一般都分布在实数域,但是我们想得到的往往是一个在 [0,1] 阅读全文
摘要:
程序本地地址:ex2data2_regularized.py 编者注:本文采用梯度下降法来求解的logistic回归,关于其思想以及编程原理见本人之前文章《梯度下降法求解线性回归的python实现及其结果可视化》(https://zhuanlan.zhihu.com/p/30562194),在这里不 阅读全文
摘要:
本文为个人笔记,只记了重要内容,不适合新手入手 线性回归 样本(x(i),y(i)),i∈1,2,…,m(x(i),y(i)),i∈1,2,…,m x(i)=(x(i)1,x(i)2,…,x(i)n)x(i)=(x1(i),x2(i),…,xn(i)) ,假设 x(i)x(i) 具有 nn 个特征 阅读全文
摘要:
编者注:本文采用梯度下降法来求解的logistic回归,关于其思想以及编程原理见本人之前文章《梯度下降法求解线性回归的python实现及其结果可视化》(https://zhuanlan.zhihu.com/p/30562194),在这里不再赘述。 01 非线性决策边界的logistic回归拟合 常规 阅读全文
摘要:
介绍 logistic regression是一种最基本的分类算法。它的模型为,其中。 其代价函数。 对于二分类问题,y的取值为0和1,这里,我们设定为y=1概率。当其大于等于0.5时,我们预测结果为1,当其小于0.5时,我们预测结果为0。 使用梯度下降算法 迭代公式:其中。推导过程见下图。 矢量化 阅读全文
摘要:
线性回归 介绍 为了防止过度拟合,正则化是一种不错的思路。能够使得获得的边界函数更加平滑。更好的模拟现实数据,而非训练样本。 方法 可以说,regularization是添加惩罚,使得参数接近于零,这里1<=j<=n,也即不对进行regularization。 正规化后的代价函数。则该代价函数梯度见 阅读全文
摘要:
逻辑回归(logistic regression) 1.用来解决归类问题(只是由于历史上的原因取了回归的名字) 2.二分归类(binary classification) 定义:对于输入,输出值不连续,而是两个离散的值,eg:{0,1} 方法:利用线性回归,将大于0.5的输出预测值设为1,小于0.5 阅读全文
摘要:
转至:云不知深处的博客: https://blog.csdn.net/pakko/article/details/37527799 总结了线性回归的理论部分,下面我们以浦东塘桥的二手房数据来实践线性回归。 数据及代码连接下载,工具使用Octave。 1,数据获取 从网站爬到数据,并整理成我们需要的。 阅读全文
摘要:
《机器学习》学习笔记(一):线性回归、逻辑回归 本笔记主要记录学习《机器学习》的总结体会。如有理解不到位的地方,欢迎大家指出,我会努力改正。 在学习《机器学习》时,我主要是通过Andrew Ng教授在mooc上提供的《Machine Learning》课程,不得不说Andrew Ng老师在讲授这门课 阅读全文