摘要: 前几天做拟合的时候就想着把之前所学的做一个总结和归纳,以前喜欢在印象笔记里面写自己的记录和感想,但是还是觉得拿出来更好,一方面可以与更多大牛交流,另一方面可以整理下所学所得,还能记录自己的成长。就目前来看,我要写的内容主要分为以下几个部分: 基础理论 经典图像处理算法 神经网络模型与实践 推荐算法 阅读全文
posted @ 2019-04-16 22:39 SshunWang 阅读(192) 评论(0) 推荐(0) 编辑
摘要: 这一部分内容和吴恩达老师的CS229前面的部分基本一致,不过那是很久之前看的了,我尽可能写的像吴恩达老师那样思路缜密。 1.假设 之前我们了解过最大似然估计就是最大化似然函数$$L(\theta) = \sum log(p(x_{i}|\theta))$$ 来确定参数\(\theta\),假设我们独 阅读全文
posted @ 2019-07-10 21:25 SshunWang 阅读(923) 评论(0) 推荐(0) 编辑
摘要: 1.参数估计和非参数估计 前面提到随机变量的分布不是很明确时,我们需要先对随机变量的分布进行估计。有一种情况是我们知道变量分布的模型,但是具体分布的参数未知,我们通过确定这些未知参数就可以实现对变量的估计,这种方式就是参数估计。其中,比较基础且常见的参数估计方法有最大似然估计、最小二乘估计以及最大后 阅读全文
posted @ 2019-07-05 17:02 SshunWang 阅读(3862) 评论(0) 推荐(0) 编辑
摘要: 其实这是我之前最想第一篇来写的随笔了,今天就先把这一部分写一写吧。 1.问题 一个医疗诊断问题有两个可选的假设:病人有癌症、病人无癌症可用数据来自化验结果:阴性和阳性。有先验知识:在所有人口中,患病率是0.008,对确实有病的患者的化验准确率为98%,对确实无病的患者的化验准确率为97% 。 问题: 阅读全文
posted @ 2019-07-03 23:39 SshunWang 阅读(1909) 评论(0) 推荐(0) 编辑
摘要: 昨天涉及到了互信息基础上的发展,今天稍微说一下印象深刻的几个吧(毕竟发展出来的变种太多了啊)。 归一化互信息 $$NMI(A,B) = \frac{H(A)+H(B)}{H(A,B)}$$ 归一化互信息与互信息相比更平滑(有时间我补个图吧),归一化互信息降低了对重叠部分的敏感性(配准过程中,会出现H 阅读全文
posted @ 2019-07-03 14:45 SshunWang 阅读(308) 评论(0) 推荐(0) 编辑
摘要: 失踪人口回归了!!! 最近一直在忙别的,忘记了当初要维护博客的初衷,希望以后能把维护博客作为日常。 最近一直在做图像配准方面的工作,那么就围绕这个点展开一些内容吧。 ******************************************************************* 阅读全文
posted @ 2019-07-01 20:02 SshunWang 阅读(307) 评论(0) 推荐(0) 编辑