摘要: 博客园-谱聚类(spectral clustering)原理总结 阅读全文
posted @ 2020-09-16 15:20 小恶魔oo 阅读(53) 评论(0) 推荐(0) 编辑
摘要: 论文地址: "Attention GAN for Object Transfiguration in Wild Images" 最近学习了一下ECCV2018的attentionGAN,文章中attention能自动注意到 __前景目标__ 的现象让我感觉很神奇,同时又很困惑,在这个以CycleGA 阅读全文
posted @ 2020-03-16 13:26 小恶魔oo 阅读(3926) 评论(0) 推荐(0) 编辑
摘要: 在之前的学习 "2020/01/02 深度学习数学基础学习——朴素贝叶斯" 中,大概的了解了生成学习的原理,但是对算法实现的 __完整流程__ 不够清晰,所以今天想通过对生成学习回顾,明确一下生成学习的流程框架。 学习资料: "斯坦福CS229 note2 Generative Learning a 阅读全文
posted @ 2020-03-05 12:05 小恶魔oo 阅读(561) 评论(0) 推荐(0) 编辑
摘要: 理解协方差 方差 首先,我们设$X$表示随机变量,它的观测样本是$(x_{1}, x_{2}, ..., x_, ...)\(。有了观测样本,我们可以计算出观测样本的平均值\)\bar$。进一步,我们可以利用公式: \(\sigma_{x}^{2}=\frac{1}{n-1} \sum_{i=1}^ 阅读全文
posted @ 2020-03-04 14:17 小恶魔oo 阅读(509) 评论(0) 推荐(0) 编辑
摘要: 什么是高斯混合模型 高斯混合模型(GMM)认为,一个数据分布可以有几个高斯分布组合而成。 参考博客:| 知乎 | 高斯混合模型聚类 对于一个多类别数据集合,所有类别各自的数据分布的组合就是整体数据分布。这非常符合高斯混合模型理论。我们可以用一个生活化一点的例子来说明高斯混合模型聚类。假设有一堆颜色相 阅读全文
posted @ 2020-02-28 21:27 小恶魔oo 阅读(221) 评论(0) 推荐(0) 编辑
摘要: 提出动机 __训练层面__ 1. CNN对见过的样本有好的泛化能力,而没见过的样本则比较差(例:看过正脸很难识别侧脸)。这就是CNN的归纳偏置(inductive bias)。 2. 为了取得对大部分情况都好的泛化能力,需要各种情况的训练样本,这样大大增加训练代价。 3. Capsule希望能够学习 阅读全文
posted @ 2020-02-28 11:11 小恶魔oo 阅读(579) 评论(0) 推荐(0) 编辑
摘要: 学习资料 1. "知乎 【其实贼简单】拉普拉斯算子和拉普拉斯矩阵" 2. "CSDN 我见过最清晰的–理解梯度,散度,旋度" 3. "拉普拉斯矩阵的性质" 阅读全文
posted @ 2020-02-15 12:35 小恶魔oo 阅读(820) 评论(0) 推荐(0) 编辑
摘要: "博客" "代码" 阅读全文
posted @ 2020-01-02 21:34 小恶魔oo 阅读(238) 评论(0) 推荐(0) 编辑
摘要: 问题:这些估计都是干嘛用的?它们存在的意义的是什么? 有一个受损的骰子,看起来它和正常的骰子一样,但实际上因为受损导致各个结果出现的概率不再是均匀的 \(\frac{1}{6}\) 了。我们想知道这个受损的骰子各个结果出现的实际概率。准确的实际概率我们可能永远无法精确的表示出了,但是我们可以通过做大 阅读全文
posted @ 2019-12-30 22:54 小恶魔oo 阅读(528) 评论(0) 推荐(0) 编辑
摘要: 原始residual论文 "Deep Residual Learning for Image Recognition" 1. 训练深度神经网络的难处: 梯度爆炸/梯度消失 batchnorm等一系列方法较好的解决了这个问题 加深网络,模型退化(degradation) 2. residual着重要解 阅读全文
posted @ 2019-11-24 14:37 小恶魔oo 阅读(217) 评论(0) 推荐(0) 编辑