01 2019 档案
摘要:方法一:Hard Negative Mining 参考:https://www.cnblogs.com/zf-blog/p/8043347.html 方法二:Focal Loss 参考:https://www.cnblogs.com/zf-blog/p/10334279.html
阅读全文
摘要:为了有效地同时解决样本类别不均衡和苦难样本的问题,何凯明和RGB以二分类交叉熵为例提出了一种新的Loss Focal loss 原始的二分类交叉熵形式如下: Focal Loss形式如下: 上式中,相对于原始的二分类交叉熵加入了两个量:1、modulating factor:(其中幂称为focusi
阅读全文
摘要:转载链接:https://blog.csdn.net/u014380165/article/details/79502308 思想:框架建立在FPN上,只不过在提取特征层(down-top)的时候就加入了生成proposals的操作,然后在top-down的过程中使用SSD直接在proposals上
阅读全文
摘要:转载链接:https://blog.csdn.net/qq_21949357/article/details/80046867 论文思想:为了解决IOU设置带来的最终的AP值,作者引入了cascade结构的回归器,采用cascade R-CNN stages,用一个stage的输出去训练下一个sta
阅读全文
摘要:总结一下一下R-FCN的思想:由于分类网络具有位置的“不敏感性”和检测网络具有“位置的敏感性”这两者之间的矛盾, 而ResNet论文中为了解决这个问题,做出了一点让步,即将RoI Pooling层不再放置在ResNet-101网络的最后一层卷积层之后而是放置在了“卷积层之间”,这样RoI Pooli
阅读全文
摘要:参见:https://github.com/hoya012/deep_learning_object_detection
阅读全文
摘要:K-means是一种无监督式的聚类算法,KNN是一种有监督式的分类算法; 两者总结如下: 聚类算法是一种无监督学习算法。k均值算法是其中应用最为广泛的一种,算法接受一个未标记的数据集,然后将数据聚类成不同的组。K均值是一个迭代算法,假设我们想要将数据聚类成K个组,其方法为: K-means优点: 算
阅读全文