摘要: 论文为Google Brain在16年推出的使用强化学习的Neural Architecture Search方法,该方法能够针对数据集搜索构建特定的网络,但需要800卡训练一个月时间。虽然论文的思路有很多改进的地方,但该论文为AutoML的经典之作,为后面很多的研究提供了思路,属于里程碑式的论文, 阅读全文
posted @ 2020-03-27 11:51 晓飞的算法工程笔记 阅读(394) 评论(0) 推荐(0) 编辑
摘要: 论文提出了类似于dropout作用的diversification block,通过抑制特征图的高响应区域来反向提高模型的特征提取能力,在损失函数方面,提出专注于top k类别的gradient boosting loss来优化训练过程,模型在ResNet 50上提升3.2%,算法思路巧妙,结构易移 阅读全文
posted @ 2020-03-27 11:26 晓飞的算法工程笔记 阅读(507) 评论(0) 推荐(0) 编辑
摘要: 论文提出了IoU based的DIoU loss和CIoU loss,以及建议使用DIoU NMS替换经典的NMS方法,充分地利用IoU的特性进行优化。并且方法能够简单地迁移到现有的算法中带来性能的提升,实验在YOLOv3上提升了5.91mAP,值得学习 论文:Distance IoU Loss: 阅读全文
posted @ 2020-03-27 10:37 晓飞的算法工程笔记 阅读(1121) 评论(0) 推荐(0) 编辑
摘要: 作者从detector的overfitting at training/quality mismatch at inference问题入手,提出了基于multi stage的Cascade R CNN,该网络结构清晰,效果显著,并且能简单移植到其它detector中,带来2 4%的性能提升 论文: 阅读全文
posted @ 2020-03-27 10:07 晓飞的算法工程笔记 阅读(882) 评论(0) 推荐(0) 编辑