随笔分类 - 人工智能
摘要:
`Focal Loss`是为了处理样本不平衡问题而提出的,经时间验证,在多种任务上,效果还是不错的。在理解`Focal Loss`前,需要先深刻理一下交叉熵损失,和带权重的交叉熵损失。然后我们从样本权重的角度出发,理解`Focal Loss`是如何分配样本权重的。Focal是动词Focus的形容词形式,那么它究竟Focus在什么地方呢?(详细的代码请看[Gitee](https://gitee.com/edata-code/DeepLearning-MachineLearning-Note/tree/master/FocalLoss))。
阅读全文
摘要:注: 奇异值分解在数据降维中有较多的应用,这里把它的原理简单总结一下,并且举一个图片压缩的例子,最后做一个简单的分析,希望能够给大家带来帮助。 1、特征值分解(EVD) 实对称矩阵 在理角奇异值分解之前,需要先回顾一下特征值分解,如果矩阵A是一个m×m的 (即A=AT)
阅读全文
摘要:在 "《贝叶斯之朴素理解》" 比较详细地总结了一个朴素贝叶斯。这里再对非朴素贝叶斯做一个小结,以了结贝叶斯分类。 1、非朴素贝叶斯公式 1.1 高维高斯分布 在此之前,我们同样先需准备一些数学知识, 高维高斯概率分布 ,或者也叫做联合高斯概率分布,它有如下公式 $$ p(\mathbf{x})=\f
阅读全文
摘要:贝叶斯分类器本不是一个复杂的东西,但是博主在网上几翻查找,并未找到有哪一篇博文将其写得易懂。硬着头皮去看书《模式分类》,而书上公式一大堆,实在让人头疼。几番痛苦的学习下,终于明白其中原理。现写出此文,献给各位同志。如果大家觉得这文章写得还不错,日后我可以将此文的pdf共享给大家。 这篇博文总共有4节
阅读全文