上一页 1 ··· 82 83 84 85 86 87 88 89 90 ··· 102 下一页
摘要: 阅读全文
posted @ 2015-05-20 19:27 菜鸡一枚 阅读(174) 评论(0) 推荐(0) 编辑
摘要: What are the advantages of different classification algorithms?For instance, if we have large training data set with approx more than 10000 instances ... 阅读全文
posted @ 2015-05-20 19:26 菜鸡一枚 阅读(9826) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2015-05-20 19:25 菜鸡一枚 阅读(143) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2015-05-20 19:19 菜鸡一枚 阅读(275) 评论(0) 推荐(0) 编辑
摘要: 机器学习算法中如何选取超参数:学习速率、正则项系数、minibatch size本文是《Neural networks and deep learning》概览中第三章的一部分,讲机器学习算法中,如何选取初始的超参数的值。(本文会不断补充)学习速率(learning rate,η)运用梯度下降算法进... 阅读全文
posted @ 2015-05-19 20:39 菜鸡一枚 阅读(703) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2015-05-19 18:17 菜鸡一枚 阅读(261) 评论(0) 推荐(0) 编辑
摘要: 输入彩色,imwrite保存黑白图片,imwrite的维度错误。程序如下,正常图像,少了一个维度imwrite,把图片展开,是一个二维的灰色图像(R=G=B),。如果限定了第二维,也是一个灰色图像。f=imread('C:\Users\Dy\Desktop\1_000001.jpg');figure... 阅读全文
posted @ 2015-05-19 17:33 菜鸡一枚 阅读(358) 评论(0) 推荐(0) 编辑
摘要: 随机梯度下降(Stochastic gradient descent)和 批量梯度下降(Batch gradient descent )的公式对比、实现对比梯度下降(GD)是最小化风险函数、损失函数的一种常用方法,随机梯度下降和批量梯度下降是两种迭代求解思路,下面从公式和实现的角度对两者进行分析,如... 阅读全文
posted @ 2015-05-19 14:21 菜鸡一枚 阅读(488) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2015-05-18 19:42 菜鸡一枚 阅读(139) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2015-05-18 19:38 菜鸡一枚 阅读(186) 评论(0) 推荐(0) 编辑
上一页 1 ··· 82 83 84 85 86 87 88 89 90 ··· 102 下一页