摘要: 机器学习算法中如何选取超参数:学习速率、正则项系数、minibatch size本文是《Neural networks and deep learning》概览中第三章的一部分,讲机器学习算法中,如何选取初始的超参数的值。(本文会不断补充)学习速率(learning rate,η)运用梯度下降算法进... 阅读全文
posted @ 2015-05-19 20:39 菜鸡一枚 阅读(696) 评论(0) 推荐(0) 编辑
摘要: 正则化方法:L1和L2 regularization、数据集扩增、dropout本文是《Neural networks and deep learning》概览中第三章的一部分,讲机器学习/深度学习算法中常用的正则化方法。(本文会不断补充)正则化方法:防止过拟合,提高泛化能力在训练数据不够多时,或者... 阅读全文
posted @ 2015-05-19 20:36 菜鸡一枚 阅读(3128) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2015-05-19 18:17 菜鸡一枚 阅读(260) 评论(0) 推荐(0) 编辑
摘要: 输入彩色,imwrite保存黑白图片,imwrite的维度错误。程序如下,正常图像,少了一个维度imwrite,把图片展开,是一个二维的灰色图像(R=G=B),。如果限定了第二维,也是一个灰色图像。f=imread('C:\Users\Dy\Desktop\1_000001.jpg');figure... 阅读全文
posted @ 2015-05-19 17:33 菜鸡一枚 阅读(356) 评论(0) 推荐(0) 编辑
摘要: 随机梯度下降(Stochastic gradient descent)和 批量梯度下降(Batch gradient descent )的公式对比、实现对比梯度下降(GD)是最小化风险函数、损失函数的一种常用方法,随机梯度下降和批量梯度下降是两种迭代求解思路,下面从公式和实现的角度对两者进行分析,如... 阅读全文
posted @ 2015-05-19 14:21 菜鸡一枚 阅读(486) 评论(0) 推荐(0) 编辑