上一页 1 ··· 41 42 43 44 45 46 47 48 49 ··· 99 下一页
摘要: int型除以int型得到的还是int型 就算你是这样的:float a = 5/3,虽然你定义的a是float型,但a得到的结果依旧是1.0000而不是1.66666 5/3先得到1,然后再转换成1.00000 除数或被除数至少有一个是double或float,才有可能得到小数 阅读全文
posted @ 2018-02-09 18:18 有梦就要去实现他 阅读(733) 评论(0) 推荐(0) 编辑
摘要: softmax_loss中的ignore_label是来自于loss layer,而不是softmax_loss的参数 阅读全文
posted @ 2018-02-04 20:46 有梦就要去实现他 阅读(155) 评论(0) 推荐(0) 编辑
摘要: http://blog.csdn.net/u013010889/article/details/54614067 这个人的博客本身也相当好 阅读全文
posted @ 2018-02-02 15:41 有梦就要去实现他 阅读(213) 评论(0) 推荐(0) 编辑
摘要: 先定义几个参数 输入图片大小 W×W Filter大小 F×F 步长 S padding的像素数 P 于是我们可以得出 N = (W − F + 2P )/S+1 输出图片大小为 N×N 这个公式的理解:以w方向为例,宽度为W(相当于W个像素点),pad相当于增加的尺寸(相当于增加了像素点),pad 阅读全文
posted @ 2018-02-01 13:03 有梦就要去实现他 阅读(489) 评论(0) 推荐(0) 编辑
摘要: 1.ION:在conv3、conv4、conv5和context features上分别进行roi_pooling,在channel那一维进行concat 2.Hypernet:在较浅层max_pooling,中间层保持不变,较高层deconv,最后把这三个结果concat起来构成最后一层featu 阅读全文
posted @ 2018-01-31 22:36 有梦就要去实现他 阅读(305) 评论(0) 推荐(0) 编辑
摘要: https://www.zybang.com/question/51370a3820c3d48f45952fd5baec7af3.html 阅读全文
posted @ 2018-01-31 17:06 有梦就要去实现他 阅读(213) 评论(0) 推荐(0) 编辑
摘要: 一个batch下所有的图片一起经过整个网络,不是说一张图片经过网络后再让下一张进入网络,这样一个batch一起通过网络计算速度比一张一张这样快 阅读全文
posted @ 2018-01-31 16:49 有梦就要去实现他 阅读(274) 评论(0) 推荐(0) 编辑
摘要: 这是论文中的作者博客地址https://sites.google.com/site/danmlevi/ 这是作者现在的博客地址https://sites.google.com/view/danlevi/datasets,数据集直接在这下就好了 阅读全文
posted @ 2018-01-31 16:14 有梦就要去实现他 阅读(248) 评论(0) 推荐(0) 编辑
摘要: run_demoVelodyne.m使用:http://blog.csdn.net/qq_33801763/article/details/78959205 https://www.cnblogs.com/zoucheng/p/7860827.html https://www.zhihu.com/q 阅读全文
posted @ 2018-01-23 21:29 有梦就要去实现他 阅读(761) 评论(0) 推荐(0) 编辑
摘要: 1.roi_pooling层是先利用spatial_scale将region proposal映射到feature map上,然后利用pooled_w、pooled_h分别将映射后的框的长度、宽度等分形成bin,最后对每个bin进行max_pooling,这其实就是一个spp-net的过程(只不过s 阅读全文
posted @ 2018-01-23 19:33 有梦就要去实现他 阅读(404) 评论(0) 推荐(0) 编辑
上一页 1 ··· 41 42 43 44 45 46 47 48 49 ··· 99 下一页