04 2020 档案

摘要:在训练卷积神经网络模型时,经常遇到max pooling 和 average pooling,近些年的图像分类模型多数采用了max pooling,为什么都是使用max pooling,它的优势在哪呢? 一般情况下,max pooling的效果更好,虽然 max pooling 和 average 阅读全文
posted @ 2020-04-13 20:52 BooTurbo 阅读(4846) 评论(0) 推荐(0) 编辑
摘要:三种非线性激活函数sigmoid、tanh、ReLU。 sigmoid: y = 1/(1 + e-x) tanh: y = (ex - e-x)/(ex + e-x) ReLU:y = max(0, x) 在隐藏层,tanh函数要优于sigmoid函数,可以看作是sigmoid的平移版本,优势在于 阅读全文
posted @ 2020-04-13 20:01 BooTurbo 阅读(5331) 评论(0) 推荐(0) 编辑
摘要:首先引用下网上的解释: For a grayscale image, every pixel in the mean image is computed from the average of all corresponding pixels (i.e. same coordinates) acro 阅读全文
posted @ 2020-04-13 00:15 BooTurbo 阅读(7922) 评论(0) 推荐(1) 编辑
摘要:在看神经网络相关的论文时,总是能看到Epochs, Batchsize, Iterations 这些字眼,要弄明白这些专业术语,不得不先讲下梯度下降的概念。 梯度下降 梯度下降法是机器学习中经典的优化算法之一,用来求解复杂曲线的最小值。“梯度”是指某一函数在该点处的方向导数沿着该方向取得最大值,即函 阅读全文
posted @ 2020-04-10 22:48 BooTurbo 阅读(14992) 评论(0) 推荐(0) 编辑
摘要:在训练神经网络前,往往要对原始图像数据进行预处理,中心化(Zero-centered及Mean-subtraction)和归一化(Normalization)。那么具体是什么意思呢? 1、零均值化/中心化 在训练神经网络前,预处理训练集数据,通常是先进行零均值化(zero-mean),即让所有训练图 阅读全文
posted @ 2020-04-10 16:35 BooTurbo 阅读(4513) 评论(0) 推荐(1) 编辑

点击右上角即可分享
微信分享提示