摘要: 初始化是相当重要的,一定不能乱写, 因为首先初始化由于学习率比较小的原因,导致这个层的weight改变的会很慢, 其次,初始化如果不对,很可能不只是下降慢,可能是全盘皆输 17:40:18 从上述公式可以看出,由于学习率很小,所以w基本不变,再加上w内部如果都设为1,则w更新之后也基本一样,如果是这 阅读全文
posted @ 2019-03-22 17:48 freebirds 阅读(656) 评论(0) 推荐(0) 编辑
摘要: 今天的工作 1 首先证明在最后的block去掉avg_pool2d,是否会有用。 这个灵感来自于刚刚复现的paper,Deep Imbalanced Attribute Classification usingVisual Attention Aggregation,这样的结果就是参数会变得特别多, 阅读全文
posted @ 2019-03-22 14:21 freebirds 阅读(298) 评论(2) 推荐(1) 编辑
摘要: 关于Deep Imbalanced Attribute Classification usingVisual Attention Aggregation 文章的复现 这篇文章的创新点: 1 一个新的混合attention,这个结构应该很不错,即采用普通正面attention与channel atte 阅读全文
posted @ 2019-03-22 13:15 freebirds 阅读(968) 评论(1) 推荐(1) 编辑