摘要: 在之前的博客中,我们为了理解广义线性模型引入了指数族分布,不过我们并没有理解指数族分布是怎么来的。这篇博客我们就来简单介绍指数族分布的推导与应用。 阅读全文
posted @ 2017-11-05 15:04 TsReaper 阅读(3030) 评论(0) 推荐(0) 编辑
摘要: 这一节课讲解了线性规划的对偶问题及其性质。 阅读全文
posted @ 2017-11-02 10:25 TsReaper 阅读(7604) 评论(0) 推荐(2) 编辑
摘要: 这一节课讲解了利用单纯形法求解线性规划问题中,如何获得一个初始可行解。 阅读全文
posted @ 2017-10-18 19:28 TsReaper 阅读(1338) 评论(0) 推荐(0) 编辑
摘要: 这一节课讲解了求解线性规划问题的方法:单纯形法(simplex method)。 阅读全文
posted @ 2017-10-15 16:57 TsReaper 阅读(2792) 评论(1) 推荐(2) 编辑
摘要: 最近自己也在阅读一些论文,发现大部分文章都没有那么好懂,阅读起来总是需要很多思考和推理的时间。所以想把自己读过的文章都讲一讲,记录一下自己思考和推导的过程。希望有一天也能讲到自己写的文章- - 这次的文章是 A Tutorial on Principal Component Analysis(https://arxiv.org/abs/1404.1100),文章讲解了主成分分析(PCA)的动机与方法。如标题所说,这篇文章严格来说并不是一篇论文,更像一篇 PCA 的教程。 阅读全文
posted @ 2017-10-03 18:15 TsReaper 阅读(1583) 评论(0) 推荐(0) 编辑
摘要: 学校有一门课叫《应用运筹学基础》,是计算机学院唯一教优化的课程,感觉上得还行,这里简单记录一下上课学到的知识。第一节课是线性规划(linear programming)。 阅读全文
posted @ 2017-09-27 21:46 TsReaper 阅读(5205) 评论(0) 推荐(0) 编辑
摘要: 在阅读 The Elements of Statistical Learning 第三章的时候,有一个式子我没有弄明白:设 $Y = X\beta + \epsilon$,其中 $\epsilon$ 的均值为 0,方差为 $\sigma^2$;再设 $X$ 是 $N \times (p+1)$ 的矩阵(每条训练样本含常数项 1),那么对 $\sigma^2$ 的无偏估计是 $$\hat{\sigma}^2 = \frac{1}{N-p-1}\sum_{i=1}^N(y_i-\hat{y}_i)^2$$ 其中 $\hat{Y} = X\hat{\beta}$,$\hat{\beta}$ 是用 least square 得到的参数。 阅读全文
posted @ 2017-09-25 10:00 TsReaper 阅读(983) 评论(0) 推荐(0) 编辑
摘要: 最近看了 Andrew Ng 机器学习课程的学习理论部分,同时也开始看 The Elements of Statistical Learning,简单整理一下有关学习理论的内容。这篇博客将简单介绍期望泛化损失(expected prediction loss)、经验损失(empirical loss)以及两者之间的关系,还会介绍 bias-variance tradeoff。 阅读全文
posted @ 2017-09-24 11:20 TsReaper 阅读(324) 评论(0) 推荐(0) 编辑
摘要: 第一次参加实验室的组会,实验室的史学长给大家简单分享了一个研究方向:社交网络中的信息传播,感觉讲得非常棒。这里简单记录一下这个方向的要解决的问题与解决方案。 阅读全文
posted @ 2017-09-22 10:11 TsReaper 阅读(1168) 评论(0) 推荐(0) 编辑
摘要: 学习了一些机器学习的算法,总想找个地方用一用试一试。上网搜索了一番,发现了 Kaggle 这个网站,是各种企业举办机器学习竞赛的地方。Kaggle 上有一个入门级的数据集,要我们通过分析泰坦尼克号上乘客的信息,来判断他们是否获救。 阅读全文
posted @ 2017-09-14 12:33 TsReaper 阅读(635) 评论(0) 推荐(0) 编辑