上一页 1 2 3 4 5 6 7 8 ··· 17 下一页
摘要: 一,提高机器学习算法准确度的方法 当我们的机器学习算法不能准确预测我们测试数据时,我们可以尝试通过以下方法提高我们机器学习的算法准确度 1),获得更多的训练样例 2),减少特征数 3),增加特征数 4),增加多项式特征 5),增大或减小\(\lambda\) 二,评估机器学习模型 如果只是单独的使用 阅读全文
posted @ 2017-04-09 17:30 蚀 阅读(244) 评论(0) 推荐(0) 编辑
摘要: 当我们用非线性假设函数n元k次方程表达逻辑回归特征值,我们的算法的效率将是\( O\left ( n^{k} \right ) \) 当特征数n和k过大时,逻辑回归的算法效率将会非常低,神经网络算法就是为了解决非线性逻辑回归算法而诞生的 神经网络算法来源于模拟人类大脑神经,同一种神经放在不同的大脑区 阅读全文
posted @ 2017-03-28 21:52 蚀 阅读(245) 评论(0) 推荐(0) 编辑
摘要: 用pyhton具体实现机器学习算法感觉并没有Octave方便 幸好python有专门的scikit-learn库来直接用,所以以后的策略就是用Octave学习和理解算法 用python应用库算法解决Kaggle问题 1,Iris数据集逻辑回归Python版,数据地址:https://www.kagg 阅读全文
posted @ 2017-03-26 21:34 蚀 阅读(399) 评论(0) 推荐(0) 编辑
摘要: 1,逻辑回归(Logistic Regression) 监督学习除了线性回归之外,还有逻辑回归(Logistic Regression),也叫分类(Classifycation) 分类问题输入和线性回归问题一样,不过它的输出是离散值。 我们先来学习简单二元分类(输出值只有0和1) 问题就是给定n个特 阅读全文
posted @ 2017-03-23 13:35 蚀 阅读(291) 评论(0) 推荐(0) 编辑
摘要: 一,梯度下降法Gradient Decent 当我们以线性回归的模型来拟合我们的数据集时,我们如何来确定假设函数的参数值呢? 首先我们以两个参数为例,即Hθ(x) = θ0 + θ1X,也就是一个一次函数,而代价函数,我们为了尽量拟合数据集,也就是选择合适的θ0(截距), θ1(斜率)使代价函数J( 阅读全文
posted @ 2017-03-15 21:10 蚀 阅读(792) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 ··· 17 下一页