摘要: sel(1:100); 1 2 3 4 5 ...100 X(sel, :); 1.......2.......3.......4.......5..........100...... nn_params = [Theta1(:) ; Theta2(:)]; 阅读全文
posted @ 2018-08-19 12:31 8亩田 阅读(294) 评论(1) 推荐(0) 编辑
摘要: 逻辑回归是一个分类算法,它可以处理二元分类以及多元分类。虽然它名字里面有“回归”两个字,却不是一个回归算法。那为什么有“回归”这个误导性的词呢?个人认为,虽然逻辑回归是分类模型,但是它的原理里面却残留着回归模型的影子。邮件是否是垃圾邮件。细胞是否是癌细胞。 1. 从线性回归到逻辑回归 我们知道,线性 阅读全文
posted @ 2018-08-19 12:31 8亩田 阅读(217) 评论(0) 推荐(0) 编辑
摘要: size(X, 1); X=5000*400 size(X, 1) = 5000 取行 size(X,2) = 400 取列 阅读全文
posted @ 2018-08-19 12:30 8亩田 阅读(1729) 评论(0) 推荐(0) 编辑
摘要: sel(1:100); 1 2 3 4 5 ...100 X(sel, :); 1....... 2....... 3....... 4....... 5....... . . . 100...... https://www.cnblogs.com/liu-wang/p/9466123.html 阅读全文
posted @ 2018-08-19 12:30 8亩田 阅读(2518) 评论(0) 推荐(0) 编辑
摘要: 1 代价函数实现(cost function) 1.1 详细解释 转化成了向量(矩阵)形式,如果用其他的语言,用循环应该可以实现 2 梯度下降 2.1 解释 把theta存起来。保证同时更新 更新theta 这步是求和,相当于sum J_history(iter) = computeCost(X, 阅读全文
posted @ 2018-08-11 15:29 8亩田 阅读(5388) 评论(0) 推荐(0) 编辑
摘要: 方法1 结论:超时 阅读全文
posted @ 2018-08-05 07:53 8亩田 阅读(93) 评论(0) 推荐(0) 编辑
摘要: 1梯度下降 梯度下降是一个用来求函数最小值的算法,我们将使用梯度下降算法来求出代价函数J(θ0,θ1)J(θ0,θ1) 的最小值。 梯度下降背后的思想是:开始时我们随机选择一个参数的组合(θ0,θ1,......,θn)(θ0,θ1,......,θn),计算代价函数,然后我们寻找下一个能让代价函数 阅读全文
posted @ 2018-06-27 21:32 8亩田 阅读(211) 评论(0) 推荐(0) 编辑
摘要: 1 代价函数 在线性回归中我们有一个像这样的训练集,m代表了训练样本的数量,比如 m = 47。而我们的假设函数,也就是用来进行预测的函数,是这样的线性函数形式:hθ(x)=θ0+θ1xhθ(x)=θ0+θ1x。 接下来我们会引入一些术语我们现在要做的便是为我们的模型选择合适的参数(paramete 阅读全文
posted @ 2018-06-27 17:07 8亩田 阅读(304) 评论(0) 推荐(0) 编辑
摘要: 1 线性回归算法 http://www.cnblogs.com/wangxin37/p/8297988.html 回归一词指的是,我们根据之前的数据预测出一个准确的输出值,对于这个例子就是价格,回归=预测,同时,还有另一种最常见的监督学习方式,叫做分类问题,当我们想要预测离散的输出值,例如,我们正在 阅读全文
posted @ 2018-06-27 10:58 8亩田 阅读(292) 评论(0) 推荐(0) 编辑
摘要: 1 无监督学习 有标签的是监督学习,无标签的是非监督,当然还有中半监督 无监督学习算法可能会把这些数据分成两个不同的簇。所以叫做聚类算法 无监督学习会自动将数据分类 给它一堆水果 它可以分类出哪些是香蕉哪些是苹果榴莲 自动分类 2 应用 其中就有基因学的理解应用。一个DNA微观数据的例子。基本思想是 阅读全文
posted @ 2018-06-27 09:57 8亩田 阅读(309) 评论(0) 推荐(0) 编辑