上一页 1 ··· 25 26 27 28 29 30 31 32 33 ··· 99 下一页
摘要: idea:ROI pooling前都是卷积,是具备平移不变性的,但一旦插入ROI pooling之后,后面的网络结构就不再具备平移不变性了,就解决了分类和定位的矛盾,但因为引入roi-wise layer,会牺牲训练和测试的效率。因此,本文想提出来的position sensitive score 阅读全文
posted @ 2018-08-20 16:26 有梦就要去实现他 阅读(296) 评论(0) 推荐(0) 编辑
摘要: 在region proposal阶段采用不同的iou。 第一幅图,不同颜色的线是用不同的region proposal的iou阈值,横坐标是region proposal生成的框与gt的原始iou,纵坐标是未经过训练的框经过bounding box regression后生成的新框与gt的iou,发 阅读全文
posted @ 2018-08-20 02:33 有梦就要去实现他 阅读(1275) 评论(0) 推荐(0) 编辑
摘要: 流程:1.detections和trackers用匈牙利算法进行匹配 2.把匹配中iou < 0.3的过滤成没匹配上的(1、2步共同返回匹配上的,没匹配上的trackers,没匹配上的detections) 3.更新匹配上的detections到trackers 4.把没匹配上的detections 阅读全文
posted @ 2018-08-20 01:02 有梦就要去实现他 阅读(639) 评论(0) 推荐(0) 编辑
摘要: 1.理论上浅层是提取一些物体的一般特性,颜色、纹理、形状等 2.提出position sensitive score map还有个idea:随着网络深度的增加,网络对于位置(Position)的敏感度越来越低,也就是所谓的translation-invariance,但是在Detection的时候, 阅读全文
posted @ 2018-08-17 14:49 有梦就要去实现他 阅读(140) 评论(0) 推荐(0) 编辑
摘要: 代办项: 把自己做的实验全部总结一次 1.浅层和深层concat和eltwise相加性能上有啥区别 把dssd和fpn做一个对比,既然没办法在fpga上用deconvolution,如果dssd效果好,那可以用dssd 统计数据的所有size大小,然后把anchor改了 2.把backbone从st 阅读全文
posted @ 2018-08-17 13:43 有梦就要去实现他 阅读(159) 评论(0) 推荐(0) 编辑
摘要: 上图是2^x-1的曲线,取值范围在(-1,正无穷) 上面两个公式组成了隶属函数(membership)表示隶属度,隶属度就是衡量这个点同下边缘点是否属于同一个物体。实际上M函数就是2^x-1,但M函数的取值范围在(-1,1],且bottom点取到最大值1.小于0的点属于背景,大于0的点属于物体。 1 阅读全文
posted @ 2018-08-16 16:17 有梦就要去实现他 阅读(245) 评论(0) 推荐(0) 编辑
摘要: 1.resnet的skip connection是通过eltwise相加的 2.resnet做detection的时候是在conv4_x的最后一层(也就是stage4的最后一层),因为这个地方stride为16 作者:灰灰链接:https://www.zhihu.com/question/64494 阅读全文
posted @ 2018-08-15 23:16 有梦就要去实现他 阅读(369) 评论(0) 推荐(0) 编辑
摘要: 我们知道,在做数学题的时候,解未知数的方法,是给定自变量和函数,通过函数处理自变量,以获得解。而机器学习就相当于,给定自变量和函数的解,求函数。类似于:这样:function(x)=y 机器学习就是样本中有大量的x(特征量)和y(目标变量)然后求这个function。 求函数的方法,基于理论上来说, 阅读全文
posted @ 2018-08-14 17:40 有梦就要去实现他 阅读(290) 评论(0) 推荐(0) 编辑
摘要: 总结:逻辑回归是在线性回归的基础上套用了一个逻辑函数。线性回归是进行回归预测,逻辑回归是用来分类,即离散。线性回归是在整个实数空间进行回归,逻辑回归把整个回归限定在实数范围0,1的回归,以某一阈值作为分类判别 逻辑回归中逻辑函数: 线性回归的模型是求出输出特征向量Y和输入样本矩阵X之间的线性关系系数 阅读全文
posted @ 2018-08-14 15:47 有梦就要去实现他 阅读(832) 评论(0) 推荐(0) 编辑
摘要: faster rcnn中这三层是单独生成的层,也是复现最复杂的层 anchor_target_layer作用:从众多的anchor中选取出正负样本供rpn网络学习(实际上就是把anchor和gt进行配对,配对后将这一对送给loss进行训练). 注意的点:从众多的anchor中随机选取128个正样本( 阅读全文
posted @ 2018-08-13 22:47 有梦就要去实现他 阅读(729) 评论(0) 推荐(0) 编辑
上一页 1 ··· 25 26 27 28 29 30 31 32 33 ··· 99 下一页