摘要: training Neural Network 一般以mini-batch的形式训练,类似于cs231n中assignment的格式 简单举个例子, for epoch in range(epochs): #每个周期训练一遍所有数据 for iteration in range(iterations 阅读全文
posted @ 2019-06-05 17:05 lunaY 阅读(522) 评论(0) 推荐(0) 编辑
摘要: Introduction to Neural Networks BP 梯度反向传播BackPropagation,是神经网络中的重要算法,主要思想是: 计算网络的输出与期望输出之间的误差 将误差从网络的输出层回传,沿着网络逐层传递,传递的是损失值相对当前层里参数的梯度 当每一层都接收到该层的参数梯度 阅读全文
posted @ 2019-06-05 16:45 lunaY 阅读(261) 评论(0) 推荐(0) 编辑
摘要: 线性分类器的基本模型: f = Wx Loss Function and Optimization 1. LossFunction 衡量在当前的模型(参数矩阵W)的效果好坏 Multiclass SVM Loss: Hinge Loss 样本 \(i\) 的损失:\(L_i = \sum_{j \n 阅读全文
posted @ 2019-06-05 16:36 lunaY 阅读(235) 评论(0) 推荐(0) 编辑