摘要: 本次课主要讲正则化、特征选取以及梯度下降(部分内容参考了链接1,链接2) 在先前的讨论中,我们发现K值越高,或是线性回归的阶数越高,一定程度能够对训练数据产生更好的拟合效果,但是对于测试数据而言误差也许非常大,即过拟合 正则化就能够用来解决因为特征过多导致的过拟合问题 βj即惩罚项,用来减少某一个特 阅读全文
posted @ 2018-07-25 16:18 冷血无情康纳酱 阅读(188) 评论(0) 推荐(0) 编辑