01 2020 档案

摘要:一、牛顿方法: 基本思想是利用迭代点$x_k$处的一阶导数(梯度)和二阶导数(Hessen矩阵)对目标函数进行二次函数近似,然后把二次模型的极小点作为新的迭代点,并不断重复这一过程,直至求得满足精度的近似极小值。 对于f(x)=0,求解x; 初始化$\theta$ ,然后一直迭代:$\theta^{ 阅读全文
posted @ 2020-01-30 21:16 呆子哥哥 阅读(441) 评论(0) 推荐(0) 编辑
摘要:局部加权回归( locally weighted regression ) 特征选择问题:underfitting,overfitting parametric learing algorithm:有固定数目的参数以用来数据拟合的算法; Non parametric learing algorith 阅读全文
posted @ 2020-01-29 17:15 呆子哥哥 阅读(588) 评论(0) 推荐(0) 编辑
摘要:Notation: m=number of training examples n=number of features x="input" variables / features y="output"variable/"target" variable $(x^{(i)},y^{(i)})$ = 阅读全文
posted @ 2020-01-19 14:27 呆子哥哥 阅读(222) 评论(0) 推荐(0) 编辑