04 2020 档案
摘要:在训练卷积神经网络模型时,经常遇到max pooling 和 average pooling,近些年的图像分类模型多数采用了max pooling,为什么都是使用max pooling,它的优势在哪呢? 一般情况下,max pooling的效果更好,虽然 max pooling 和 average
阅读全文
摘要:三种非线性激活函数sigmoid、tanh、ReLU。 sigmoid: y = 1/(1 + e-x) tanh: y = (ex - e-x)/(ex + e-x) ReLU:y = max(0, x) 在隐藏层,tanh函数要优于sigmoid函数,可以看作是sigmoid的平移版本,优势在于
阅读全文
摘要:首先引用下网上的解释: For a grayscale image, every pixel in the mean image is computed from the average of all corresponding pixels (i.e. same coordinates) acro
阅读全文
摘要:在看神经网络相关的论文时,总是能看到Epochs, Batchsize, Iterations 这些字眼,要弄明白这些专业术语,不得不先讲下梯度下降的概念。 梯度下降 梯度下降法是机器学习中经典的优化算法之一,用来求解复杂曲线的最小值。“梯度”是指某一函数在该点处的方向导数沿着该方向取得最大值,即函
阅读全文
摘要:在训练神经网络前,往往要对原始图像数据进行预处理,中心化(Zero-centered及Mean-subtraction)和归一化(Normalization)。那么具体是什么意思呢? 1、零均值化/中心化 在训练神经网络前,预处理训练集数据,通常是先进行零均值化(zero-mean),即让所有训练图
阅读全文