Hard negtive mning
值得注意的是,一般情况下 negative default boxes 数量远远大于positive default boxes 数量,这样训练会导致网络过于重视负样本,查看loos可知。从而loss不稳定。所以ssd在抽样时按照置信度误差(预测背景的概率越小,误差越大)进行降序排序,选出误差较大的top-K作为训练的负样本,控制positive:negative=1:3.作者发现可以导致模型更快的优化和更稳定的训练。
值得注意的是,一般情况下 negative default boxes 数量远远大于positive default boxes 数量,这样训练会导致网络过于重视负样本,查看loos可知。从而loss不稳定。所以ssd在抽样时按照置信度误差(预测背景的概率越小,误差越大)进行降序排序,选出误差较大的top-K作为训练的负样本,控制positive:negative=1:3.作者发现可以导致模型更快的优化和更稳定的训练。
【推荐】还在用 ECharts 开发大屏?试试这款永久免费的开源 BI 工具!
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步