01 2019 档案

摘要:方法一:Hard Negative Mining 参考:https://www.cnblogs.com/zf-blog/p/8043347.html 方法二:Focal Loss 参考:https://www.cnblogs.com/zf-blog/p/10334279.html 阅读全文
posted @ 2019-01-29 15:23 outthinker 阅读(1679) 评论(0) 推荐(0) 编辑
摘要:为了有效地同时解决样本类别不均衡和苦难样本的问题,何凯明和RGB以二分类交叉熵为例提出了一种新的Loss Focal loss 原始的二分类交叉熵形式如下: Focal Loss形式如下: 上式中,相对于原始的二分类交叉熵加入了两个量:1、modulating factor:(其中幂称为focusi 阅读全文
posted @ 2019-01-29 15:22 outthinker 阅读(669) 评论(0) 推荐(0) 编辑
摘要:转载链接:https://blog.csdn.net/u014380165/article/details/79502308 思想:框架建立在FPN上,只不过在提取特征层(down-top)的时候就加入了生成proposals的操作,然后在top-down的过程中使用SSD直接在proposals上 阅读全文
posted @ 2019-01-10 16:50 outthinker 阅读(342) 评论(0) 推荐(0) 编辑
摘要:转载链接:https://blog.csdn.net/qq_21949357/article/details/80046867 论文思想:为了解决IOU设置带来的最终的AP值,作者引入了cascade结构的回归器,采用cascade R-CNN stages,用一个stage的输出去训练下一个sta 阅读全文
posted @ 2019-01-10 16:26 outthinker 阅读(757) 评论(0) 推荐(0) 编辑
摘要:总结一下一下R-FCN的思想:由于分类网络具有位置的“不敏感性”和检测网络具有“位置的敏感性”这两者之间的矛盾, 而ResNet论文中为了解决这个问题,做出了一点让步,即将RoI Pooling层不再放置在ResNet-101网络的最后一层卷积层之后而是放置在了“卷积层之间”,这样RoI Pooli 阅读全文
posted @ 2019-01-10 16:12 outthinker 阅读(411) 评论(0) 推荐(0) 编辑
摘要:参见:https://github.com/hoya012/deep_learning_object_detection 阅读全文
posted @ 2019-01-04 08:59 outthinker 阅读(1757) 评论(0) 推荐(0) 编辑
摘要:K-means是一种无监督式的聚类算法,KNN是一种有监督式的分类算法; 两者总结如下: 聚类算法是一种无监督学习算法。k均值算法是其中应用最为广泛的一种,算法接受一个未标记的数据集,然后将数据聚类成不同的组。K均值是一个迭代算法,假设我们想要将数据聚类成K个组,其方法为: K-means优点: 算 阅读全文
posted @ 2019-01-01 20:55 outthinker 阅读(290) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示