摘要: 1.正规化的线性回归 (1)代价函数 (2)梯度 linearRegCostFunction.m 用fmincg最优的theta来拟合线性回归,画出线性回归函数(在这里是低维度的可以画出来) 2.偏差与方差 (1)求训练样本的误差代价: (2)交叉样本集 Jcv learningCurve.m 学习 阅读全文
posted @ 2019-04-28 11:29 小树同学 阅读(280) 评论(0) 推荐(0) 编辑
摘要: 一、一组神经元 θ是模型权重(模型的参数)。 二、模型展示 三、多元分类 四、编程作业(多元分类) 1.lrCostFunction.m 在这部分是对上节作业的for循环进行矢量化,在上节作业中已经矢量化了。从代码中可以看出用到了costfunction函数,所以把该函数放到同一文件夹中。 2.on 阅读全文
posted @ 2019-03-27 22:04 小树同学 阅读(269) 评论(0) 推荐(0) 编辑
摘要: 一、过拟合问题 欠拟合、恰当拟合、过拟合(代价函数约为0,泛化太差) 样本数量少,而样本特征很多,容易出现过拟合问题,如何解决? 1.利用一些算法自动舍弃一部分特征; 2.正则化,保留所有特征,减小 θ 量级。 二、线性回归的正则化 三、逻辑回归的正则化 编程作业 1.plotDate.m 在第一部 阅读全文
posted @ 2019-03-20 11:16 小树同学 阅读(177) 评论(0) 推荐(0) 编辑
摘要: 一、Logistic回归——分类 对于分类问题,采用线性回归是不合理的。 1.假设函数(logistic函数/Sigmoid函数): 注:假设函数 h 的值,看作结果为y=1的概率估计。决策界限可以看作是 h=0.5 的线。 2.代价函数 3.高级优化 fminunc 在上文优化过程中需要提供α值, 阅读全文
posted @ 2019-03-19 12:07 小树同学 阅读(282) 评论(0) 推荐(0) 编辑
摘要: 一、单变量线性回归: m训练样本,x输入变量特征(单变量特征只有一个),y输出变量即预测。如何用m个,特征为x的训练样本,来得到预测值? 假设函数: 代价函数: 优化目标:使用梯度下降法优化θ值来最小化代价函数J。 梯度是一个矢量,指其方向上的方向导数最大,即增长最快。 梯度下降法算法思想: 1) 阅读全文
posted @ 2019-03-12 21:28 小树同学 阅读(382) 评论(0) 推荐(0) 编辑