摘要: Focal Loss 是在交叉熵的基础上改进得到的,通过加入平衡因子alpha, 惩罚负样本 "详细信息" 阅读全文
posted @ 2020-03-12 14:11 real-zhouyc 阅读(134) 评论(0) 推荐(0) 编辑
摘要: Triplet Loss是深度学习中的一种损失函数,用于训练差异性较小的样本,如人脸等, Feed数据包括锚(Anchor)示例、正(Positive)示例、负(Negative)示例,通过优化锚示例与正示例的距离小于锚示例与负示例的距离,实现样本的相似性计算。 L=max(d(a,p)−d(a,n 阅读全文
posted @ 2020-03-12 14:10 real-zhouyc 阅读(479) 评论(0) 推荐(0) 编辑
摘要: 0 1损失函数 预测值和目标值不等, 则为1, 否则为0 $$L(Y,f(x))= \begin{cases} 1, Y\not=f(x) \\ 0, Y=f(x) \end{cases} $$ 0 1损失直接对应分类判别的错误与否, 可以理解为是一个$sign$函数, 这样的函数, 是不连续的, 阅读全文
posted @ 2020-03-12 14:08 real-zhouyc 阅读(387) 评论(0) 推荐(0) 编辑
摘要: 1. GAN为什么难以训练? 大多深度模型的训练都使用优化算法寻找损失函数比较低的值。优化算法通常是个可靠的“下山”过程。生成对抗神经网络要求双方在博弈的过程中达到势均力敌(均衡)。每个模型在更新的过程中(比如生成器)成功的“下山”,但同样的更新可能会造成博弈的另一个模型(比如判别器)“上山”。甚至 阅读全文
posted @ 2020-03-12 14:05 real-zhouyc 阅读(1086) 评论(0) 推荐(0) 编辑
摘要: 1. 信息熵 信息熵是信息论中用于度量信息量的一个概念。一个系统越是有序,信息熵就越低;反之,一个系统越是混乱,信息熵就越高。所以,信息熵也可以说是系统有序化程度的一个度量。信息量是对信息的度量,就跟时间的度量是秒一样,当我们考虑一个离散的随机变量 x 的时候,当我们观察到的这个变量的一个具体值的时 阅读全文
posted @ 2020-03-12 14:01 real-zhouyc 阅读(1090) 评论(0) 推荐(0) 编辑