摘要: (一)前言 网上已经有很多关于$Dijkstra$和$Bellman–Ford–Moore$算法的文章了,为何在此还要再写?其实不难发现,常见的教程都是给出了算法的步骤与所谓的实现代码,但要找到关于其为何正确这一点的说明是不太见到的(或者是证明存在一定问题,大多数是细节交代不清或者疯狂跳步),这就很 阅读全文
posted @ 2019-11-19 23:23 GYHHAHA 阅读(1303) 评论(0) 推荐(0) 编辑
摘要: (一)前言 老生常谈,现在很多写博客的人根本就不管自己抄过来的对不对,有些甚至连转载出处都不标,错误逐渐传播,图片通通copy,影响极其恶劣,令人作呕。正如现在要找一篇数学上证明SVD的文章都很难找到,全都是给你直接讲“直观理解”和所谓的“内涵”,搞来搞去就是复制黏贴那些已经有过的东西,转载的人可能 阅读全文
posted @ 2019-11-05 21:26 GYHHAHA 阅读(1194) 评论(0) 推荐(1) 编辑
摘要: (一)前言 最近,抽样调查课上$Delta$方法又重出江湖,且老师说它和$Slutsky$定理都很重要,故整理 (二)$Slutsky$定理 叙述:设$X_n\stackrel{d}{\longrightarrow}X,Y_n\stackrel{p}{\longrightarrow}c$,其中$c$ 阅读全文
posted @ 2019-11-05 11:56 GYHHAHA 阅读(6016) 评论(0) 推荐(0) 编辑
摘要: (一)前言 在仔细看PCA推导$^{[1]}$的过程中,一开始进行的非常顺利,但后来被一个求极值的式子卡住,而且这个问题正是为何取最大的$m$个特征值原因的关键,一卡就是一天,实在是太弱鸡了。。。后来各种找资料,结果西瓜书上写地更简略,只说了利用拉格朗日乘子算得结果,算了还是不对,但是在找西瓜书资料 阅读全文
posted @ 2019-11-04 19:56 GYHHAHA 阅读(3335) 评论(0) 推荐(1) 编辑
摘要: (一)前言 早就耳闻$KL$散度$(Kullback-Leibler$ $divergence)$大名,一方面近日回归分析课上提到了一些,但还是似懂非懂,另一方面又在重温随机森林时不可避免地进一步了解了信息增益的相关性质,而信息增益与$KL$散度之间的联系之紧密是不言而喻的,故想整合收集到的资料来学 阅读全文
posted @ 2019-11-03 18:42 GYHHAHA 阅读(999) 评论(0) 推荐(0) 编辑
摘要: (一)前言与感谢 以前就对矩阵求导有心理阴影,到底要不要转置,哪个矩阵放在前面,哪个矩阵放在后面,链式法则怎么搞,由产生此类一系列让人头大的问题。其中,最令人智熄的是经常网上的一些算法公式推导是错误的,因为矩阵维数根本不匹配,而这些无良的发布者可能根本就没有手推过,天天搞复制黏贴大法,很多时候都是大 阅读全文
posted @ 2019-11-02 14:04 GYHHAHA 阅读(7488) 评论(1) 推荐(3) 编辑