摘要:
training Neural Network 一般以mini-batch的形式训练,类似于cs231n中assignment的格式 简单举个例子, for epoch in range(epochs): #每个周期训练一遍所有数据 for iteration in range(iterations 阅读全文
摘要:
Introduction to Neural Networks BP 梯度反向传播BackPropagation,是神经网络中的重要算法,主要思想是: 计算网络的输出与期望输出之间的误差 将误差从网络的输出层回传,沿着网络逐层传递,传递的是损失值相对当前层里参数的梯度 当每一层都接收到该层的参数梯度 阅读全文
摘要:
线性分类器的基本模型: f = Wx Loss Function and Optimization 1. LossFunction 衡量在当前的模型(参数矩阵W)的效果好坏 Multiclass SVM Loss: Hinge Loss 样本 \(i\) 的损失:\(L_i = \sum_{j \n 阅读全文