摘要: GAN 的后序 参考资料 网络博客 令人拍案叫绝的Wasserstein GAN - 知乎 (zhihu.com) 生成式对抗网络GAN有哪些最新的发展,可以实际应用到哪些场景中? - 知乎 (zhihu.com) 从动力学角度看优化算法:GAN的第三个阶段 - 知乎 (zhihu.com) 视频讲 阅读全文
posted @ 2021-11-16 21:27 英飞 阅读(28519) 评论(0) 推荐(0) 编辑
摘要: 我在b站读研究生——跟着李沐读论文1 ——Gan 读论文 标题+作者+时间+期刊+被引 generative adversarial Nets 生成对抗网络 作者 Ian J.Goodfellow 深度学习(花书)的作者 摘要 Abstract 我们推出了一个通过对抗过程来估计生成模型的新的结构,在 阅读全文
posted @ 2021-11-16 21:18 英飞 阅读(281) 评论(0) 推荐(0) 编辑
摘要: 广义线性模型GLM 判断标准非常简单,响应变量y独立则GLM,否则GLMM。这就是最本质的判断标准,其它的标准都是基于这个标准来的 指数分布族 概率密度为 \[ f_X(x;\theta) = h(x) e^{ (\ \eta(\theta)\cdot T(x)+A(\theta)\ )} \] 其 阅读全文
posted @ 2021-11-16 20:51 英飞 阅读(431) 评论(0) 推荐(0) 编辑
摘要: 熵 ,KL散度,交叉熵,JS散度,Wasserstein 距离(EarthMover距离) 信息量 香农(Shannon)认为“信息是用来消除随机不确定性的东西”,也就是说衡量一个事件信息量大小就看这个信息消除事件不确定性的程度。 从编码的角度 设信源X可发出的消息符号集合为$A= { a_i | 阅读全文
posted @ 2021-11-16 17:02 英飞 阅读(556) 评论(0) 推荐(0) 编辑
摘要: 最大似然估计 一 基本知识 1 .1概率理解——贝叶斯派与频率派 频率派:概率是一个确定的值,模型中的参数也是一个确定的值。样本数据是由确定的概率分布生成的,因此数据是随机的。多次重复试验,使用事件发生的频率近似代替概率 。 对于一个模型或者也可说一个分布中的参数,我们相信它是固定不变的,是固有的属 阅读全文
posted @ 2021-11-16 16:50 英飞 阅读(569) 评论(0) 推荐(0) 编辑