模型选择
1.概念
拟合能力强的模型一般复杂度会比较高,容易过拟合。
如果限制模型复杂度,降低拟合能力,可能会欠拟合。
2.如何选择模型?
模型越复杂,迅雷错误越低
不能根据训练错误最低来选择模型
在选择模型时,测试集不可见
3.模型选择
引入验证集
将训练集分为两部分
训练集
验证集
如何选择模型
在训练集上训练不同的模型
选择在验证集上错误最小的模型
4.交叉验证
将训练集分为S组,每次使用S-1组作为训练集,剩余一组作为验证集
取验证集上平均性能最好的一组
5.模型选择的准则
一些准则
1.赤池信息论准则 Akaike Information Criterion AIC
2.贝叶斯信息准则 Bayesian Information Criterion BIC
模型复杂度与期望风险之间的关系
偏差-方差分解 Bias-Variance Decomposition
6.偏差-方差分解
期望风险
\(\mathcal{R}(\theta)=\mathbb{E}_{(x,y)\sim p_r(x,y)}[\mathcal{L}(y,f(x;\theta))]\)
\(\mathcal{R}(f)=\mathbb{E}_{(x,y)\sim p_r(x,y)}[(y-f(x))^2]\)
机器学习算法能学习到的最优模型
\(f^{*}(x)=\mathbb{E}_{y\sim p_r(y|x}[y]\)
期望风险可以分解为
\(\mathcal{R}(\theta)=\mathbb{E}_{(x,y)\sim p_r(x,y)}[(y-f^{*}(x)+f^{*}(x)-f(x))^2]\)
\(=\mathbb{E}_{x\sim p_r(x)}[(f(x)-f^{*}(x))^2]+\epsilon\)
\(\epsilon=\mathbb{E}_{(x,y)\sim p_r(x,y)}[(y-f^{*}(x))^2],通常是由于样本分布以及噪声引起的,无法通过优化模型来减少\)