02 2018 档案
摘要:一个使用方式:http://blog.csdn.net/xg123321123/article/details/52610919 还有一种是像relu那样写,我就是采用的这种方式,直接把名字从relu改成了prelu
阅读全文
摘要:对于layer层的cpp文件,你可以用LOG和printf、cout进行调试,cu文件不能使用LOG,可以使用cout,printf。 对于softmaxloss的layer层,既有cpp文件又有cu文件,其中cu文件只实现了前向和反向传播,cpp文件既实现了前向、反向,也实现了layer setu
阅读全文
摘要:outer_num_:相当于batch_size dim: c*w*h spatial_dim(inner_num_):w*h softmax_loss.cpp的代码: 其实可以看出来count的只取前,不取后,(0, softmax_axis_)只取了0这一个轴
阅读全文
摘要:这个错误是说要么你用pad等于一个值,或者不用就表示h、w两个方向的pad都为0. 如果你要使用pad_h,pad_w,那就两个同时出现。 比如我之前设置的是pad_h为3,pad_w为0,我就只写了一个pad_h = 3,没有写pad_w。这样就会报错。要写的话,必须把pad_h = 3和pad_
阅读全文
摘要:https://github.com/TalkingData/Myna/tree/master/Dataset https://github.com/TalkingData/Myna
阅读全文
摘要:int型除以int型得到的还是int型 就算你是这样的:float a = 5/3,虽然你定义的a是float型,但a得到的结果依旧是1.0000而不是1.66666 5/3先得到1,然后再转换成1.00000 除数或被除数至少有一个是double或float,才有可能得到小数
阅读全文
摘要:softmax_loss中的ignore_label是来自于loss layer,而不是softmax_loss的参数
阅读全文
摘要:http://blog.csdn.net/u013010889/article/details/54614067 这个人的博客本身也相当好
阅读全文
摘要:先定义几个参数 输入图片大小 W×W Filter大小 F×F 步长 S padding的像素数 P 于是我们可以得出 N = (W − F + 2P )/S+1 输出图片大小为 N×N 这个公式的理解:以w方向为例,宽度为W(相当于W个像素点),pad相当于增加的尺寸(相当于增加了像素点),pad
阅读全文