上一页 1 2 3 4 5 6 7 8 ··· 11 下一页
摘要: https://www.cnblogs.com/douzujun/p/10327963.html 阅读全文
posted @ 2019-10-21 21:34 大强广坤 阅读(437) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/qq_25737169/article/details/78847691 阅读全文
posted @ 2019-10-18 21:19 大强广坤 阅读(147) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/itnerd/article/details/83444867 阅读全文
posted @ 2019-10-16 12:18 大强广坤 阅读(1581) 评论(0) 推荐(0) 编辑
摘要: https://www.cnblogs.com/RyanXing/p/10778654.html https://blog.csdn.net/u010725283/article/details/79212762 阅读全文
posted @ 2019-10-14 20:33 大强广坤 阅读(274) 评论(0) 推荐(0) 编辑
摘要: 深度学习的优化算法,说白了就是梯度下降。每次的参数更新有两种方式。第一种,遍历全部数据集算一次损失函数,然后算函数对各个参数的梯度,更新梯度。这种方法每更新一次参数都要把数据集里的所有样本都看一遍,计算量开销大,计算速度慢,不支持在线学习,这称为Batch gradient descent,批梯度下 阅读全文
posted @ 2019-10-09 11:06 大强广坤 阅读(541) 评论(1) 推荐(0) 编辑
摘要: https://blog.csdn.net/Cowry5/article/details/80503380 阅读全文
posted @ 2019-09-29 11:19 大强广坤 阅读(389) 评论(0) 推荐(0) 编辑
摘要: http://blog.sina.com.cn/s/blog_12cb691530102v2x4.html 阅读全文
posted @ 2019-09-27 12:30 大强广坤 阅读(339) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/wangcong02345/article/details/79367377#%E7%AC%AC-5-%E9%A2%98 阅读全文
posted @ 2019-09-25 12:19 大强广坤 阅读(121) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/qq_43211132/article/details/88287766 阅读全文
posted @ 2019-09-24 21:01 大强广坤 阅读(238) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/u012328159/article/details/80210363 阅读全文
posted @ 2019-09-23 11:30 大强广坤 阅读(99) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 ··· 11 下一页