06 2018 档案

摘要:在总结正则化(Regularization)之前,我们先谈一谈正则化是什么,为什么要正则化。 个人认为正则化这个字眼有点太过抽象和宽泛,其实正则化的本质很简单,就是对某一问题加以先验的限制或约束以达到某种特定目的的一种手段或操作。在算法中使用正则化的目的是防止模型出现过拟合。一提到正则化,很多同学可 阅读全文
posted @ 2018-06-30 17:01 Poll的笔记 阅读(10832) 评论(0) 推荐(14) 编辑
摘要:深度学习的基本原理是基于人工神经网络,输入信号经过非线性的active function,传入到下一层神经元;再经过下一层神经元的activate,继续往下传递,如此循环往复,直到输出层。正是因为这些active functions的堆砌,深度学习才被赋予了解决非线性问题的能力。当然,仅仅靠acti 阅读全文
posted @ 2018-06-26 10:24 Poll的笔记 阅读(4895) 评论(2) 推荐(6) 编辑
摘要:了解LR的同学们都知道,LR采用了最小化交叉熵或者最大化似然估计函数来作为Cost Function,那有个很有意思的问题来了,为什么我们不用更加简单熟悉的最小化平方误差函数(MSE)呢? 我个人理解主要有三个原因: MSE的假设是高斯分布,交叉熵的假设是伯努利分布,而逻辑回归采用的就是伯努利分布; 阅读全文
posted @ 2018-06-10 16:52 Poll的笔记 阅读(4736) 评论(0) 推荐(2) 编辑

点击右上角即可分享
微信分享提示