10 2018 档案

摘要:一、前向传播:通过一组w参数得到一组得分值f(x),再做e^x再归一化,再到Loss值。 Bachsize是一次取2的整数倍数(32,64,128)张图片做一次迭代 学习率:过大会来回震荡,找不到最小值;太小,迭代次数过大,效率低。 二、反向传播 由Loss值一步一步往回传,更新权重参数。 先算z对 阅读全文
posted @ 2018-10-31 19:35 zarjen 阅读(553) 评论(0) 推荐(0) 编辑
摘要:SVM输出的是一个得分值; Softmax的输出是概率。 Sigmoid函数 损失函数计算的是判断正确时的概率的损失值,所以这里是0.13。 Softmax分类器对任何一个分数都可以求出一个损失值。 阅读全文
posted @ 2018-10-31 17:01 zarjen 阅读(1014) 评论(0) 推荐(0) 编辑
摘要:一、线性分类 得分函数:f(x,W) = W*x + b (均为矩阵运算),W为权重参数,x是图像。 得分高的部分就是判断属于那个类别。 多条线分类 二、损失函数 损失函数评估预测模型的效果,1位容忍值,最终损失值越大表示预测效果越差。 阅读全文
posted @ 2018-10-31 16:32 zarjen 阅读(661) 评论(0) 推荐(0) 编辑
摘要:一、影响图片识别的因素: 1 角度 2 光照强度 3 形状改变(物体的姿态) 4 部分遮蔽(只有半张脸) 5 背景混入 二、常规识别套路: 1 收集数据集并给定标签 2 训练一个分类器 3 测试 评估 三、K-近邻算法 CIFAR-10数据集(数据库样例) 适合用于练习 四、对图像数据怎样计算所谓的 阅读全文
posted @ 2018-10-31 14:02 zarjen 阅读(850) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示