03 2017 档案

摘要:当我们用非线性假设函数n元k次方程表达逻辑回归特征值,我们的算法的效率将是\( O\left ( n^{k} \right ) \) 当特征数n和k过大时,逻辑回归的算法效率将会非常低,神经网络算法就是为了解决非线性逻辑回归算法而诞生的 神经网络算法来源于模拟人类大脑神经,同一种神经放在不同的大脑区 阅读全文
posted @ 2017-03-28 21:52 阅读(251) 评论(0) 推荐(0) 编辑
摘要:用pyhton具体实现机器学习算法感觉并没有Octave方便 幸好python有专门的scikit-learn库来直接用,所以以后的策略就是用Octave学习和理解算法 用python应用库算法解决Kaggle问题 1,Iris数据集逻辑回归Python版,数据地址:https://www.kagg 阅读全文
posted @ 2017-03-26 21:34 阅读(404) 评论(0) 推荐(0) 编辑
摘要:1,逻辑回归(Logistic Regression) 监督学习除了线性回归之外,还有逻辑回归(Logistic Regression),也叫分类(Classifycation) 分类问题输入和线性回归问题一样,不过它的输出是离散值。 我们先来学习简单二元分类(输出值只有0和1) 问题就是给定n个特 阅读全文
posted @ 2017-03-23 13:35 阅读(295) 评论(0) 推荐(0) 编辑
摘要:一,梯度下降法Gradient Decent 当我们以线性回归的模型来拟合我们的数据集时,我们如何来确定假设函数的参数值呢? 首先我们以两个参数为例,即Hθ(x) = θ0 + θ1X,也就是一个一次函数,而代价函数,我们为了尽量拟合数据集,也就是选择合适的θ0(截距), θ1(斜率)使代价函数J( 阅读全文
posted @ 2017-03-15 21:10 阅读(802) 评论(0) 推荐(0) 编辑
摘要:【HDU】1532Drainage Ditches(基础) [最大流] 模板题,Dinic(数组)算法解决,写的时候,没考虑重边,WA了N次 3549 Flow Problem(基础) [最大流] 又重新默写了一遍Dinic 3572 Task Schedule [最大流]任务分配,判断满流 第一道 阅读全文
posted @ 2017-03-11 21:19 阅读(189) 评论(0) 推荐(0) 编辑
摘要:一,机器学习是什么? "A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance 阅读全文
posted @ 2017-03-11 19:26 阅读(246) 评论(0) 推荐(0) 编辑