摘要: If the targets are one... 阅读全文
posted @ 2019-10-07 08:21 larkii 阅读(105) 评论(0) 推荐(0) 编辑
摘要: 推荐使用 3×3 , 5×5 这样的小卷积核, 卷积步长设为 1. 且搭配 padding, 对卷积核大小为 n×n , 步长为 1 的卷积操作, 当 p=(f−1)/2p = (f-1)/2p=(f−1)/2 时, 便可维持输出与原输入等大. 为了硬件字节级存储管理的方便, 卷积核个数通常设置为 阅读全文
posted @ 2019-10-03 14:49 larkii 阅读(149) 评论(0) 推荐(0) 编辑
摘要: In keras.layers.Conv2D... 阅读全文
posted @ 2019-09-27 16:13 larkii 阅读(126) 评论(0) 推荐(0) 编辑
摘要: Abstract 现在广泛使用的 PSNR 和 SSIM 在解释人类感知上失败了. 但是, Recently, the deep learning community has found that features of the VGG networktrained on ImageNet clas 阅读全文
posted @ 2019-09-27 10:48 larkii 阅读(112) 评论(0) 推荐(0) 编辑
摘要: 对于神经网络的 输出层, 一般而言, 回归问题采用 恒等函数 :a(x)=xa(x)=xa(x)=x, 分类问题采用 softmax 函数 :yk^=eak∑i=1neai\hat{y_k}=\frac{e^{a_{k}}}{\sum_{i=1}^ne^{a_i}}yk​^​=∑i=1n​eai​e 阅读全文
posted @ 2019-09-23 20:00 larkii 阅读(86) 评论(0) 推荐(0) 编辑
摘要: >>> prediction = reg.p... 阅读全文
posted @ 2019-09-21 16:08 larkii 阅读(227) 评论(0) 推荐(0) 编辑
摘要: linkThe loss function ... 阅读全文
posted @ 2019-09-21 10:26 larkii 阅读(103) 评论(0) 推荐(0) 编辑
摘要: mini batch 在优化算法中的作用:深... 阅读全文
posted @ 2019-09-21 10:02 larkii 阅读(126) 评论(0) 推荐(0) 编辑
摘要: 数据列缺失的四种处理方法丢弃丢弃意味着会消减... 阅读全文
posted @ 2019-09-20 10:52 larkii 阅读(115) 评论(0) 推荐(0) 编辑
摘要: 深度学习框架有:Caffe/ Caffe2C... 阅读全文
posted @ 2019-09-18 09:16 larkii 阅读(142) 评论(0) 推荐(0) 编辑