摘要: 首先是通过K-means聚类得到anchor box的数目,这里聚类采用1—IOU(box,centriod)作为距离度量,然后在模型复杂度和召回率之间作了一个权衡,确定了K=5(标准是通过手肘法)。 YOLO -v2 损失函数:(yolo-v2开始其编码格式与V1不同。yoloV1 仅有两个box 阅读全文
posted @ 2019-05-11 05:24 Parallax 阅读(1270) 评论(0) 推荐(1) 编辑
摘要: L1损失函数:最小化绝对误差,因此L1损失对异常点有较好的适应更鲁棒,不可导,有多解,解的稳定性不好。 关于L1损失函数的不连续的问题,可以通过平滑L1损失函数代替: L2损失函数:最小化平方误差,因此L2损失对异常点敏感,L2损失函数会赋予异常点更大的损失值和梯度,调整网络参数向减小异常点误差的方 阅读全文
posted @ 2019-05-11 00:56 Parallax 阅读(972) 评论(0) 推荐(0) 编辑
摘要: 为了降低过拟合风险,需要控制模型复杂度,自然想到减少参数个数,但是这个问题不易直接解决,可以通过放宽条件控制。 L1正则化(嵌入式特征选择)——又称参数稀疏性惩罚——lasso reg 添加优化条件: 这会使参数条件空间有明显的凸角,这些突出点显然会成为联合优化时的最优解,但同时这些这些凸点中又会有 阅读全文
posted @ 2019-05-11 00:19 Parallax 阅读(205) 评论(0) 推荐(0) 编辑