摘要:
第六讲第五讲主要讲了机器学习可能性,两个问题,(1)\(E_{in} 要和 E_{out}\) 有很接近,(2)\(E_{in}\)要足够小。对于第一个假设,根据Hoefding's Inequality 可以得到,\( P[|E_{in} - E_{out}| > \epsilon] N\)时,\(B(N,k) = 2^{N}\)当\( k = N\)时,\(B(N,k) = 2^{N} - 1\),最大的可能值根据上述两条会得到一个矩阵的一部分数据,重点要考虑\( k \epsilon] \leq 2 m_{\mathcal{H}}(N) exp(-2\epsilon^2N) 阅读全文
摘要:
第五讲 Training versus Testing一、问题的提出\(P_{\mathcal{D}}\left [ BAD \mathcal{D} \right ] \leq 2M \cdot exp(-2\epsilon^2N)\)\(\Leftrightarrow P_{\mathfrak{D}}\left [ \left | E_{out} - E_{in} \right | > \epsilon \right ] \leq 2M \cdot exp(-2\epsilon^2N)\)(1) 当\(M a \)时(\(a\) 是参数),\(h(x) = +1, otherwise 阅读全文
摘要:
第四讲 机器学习的可行性一、Hoeffding's Inequality\(P[\left | \nu -\mu \right |>\epsilon ] \leq 2exp(-2\epsilon^{2}N)\) (1)in-sample error, 也就是在样本里出现的error,\(E_{in}\) is probably close to out-of-sample error \(E_{out}\) (within \(\epsilon\))推出一个类似的公式:\(P[\left | E_{in} - E_{out} \right |>\epsilon ] \... 阅读全文