摘要:
https://www.cnblogs.com/douzujun/p/10327963.html 阅读全文
摘要:
https://blog.csdn.net/qq_25737169/article/details/78847691 阅读全文
摘要:
https://blog.csdn.net/itnerd/article/details/83444867 阅读全文
摘要:
https://www.cnblogs.com/RyanXing/p/10778654.html https://blog.csdn.net/u010725283/article/details/79212762 阅读全文
摘要:
深度学习的优化算法,说白了就是梯度下降。每次的参数更新有两种方式。第一种,遍历全部数据集算一次损失函数,然后算函数对各个参数的梯度,更新梯度。这种方法每更新一次参数都要把数据集里的所有样本都看一遍,计算量开销大,计算速度慢,不支持在线学习,这称为Batch gradient descent,批梯度下 阅读全文
摘要:
https://blog.csdn.net/Cowry5/article/details/80503380 阅读全文
摘要:
http://blog.sina.com.cn/s/blog_12cb691530102v2x4.html 阅读全文
摘要:
https://blog.csdn.net/wangcong02345/article/details/79367377#%E7%AC%AC-5-%E9%A2%98 阅读全文
摘要:
https://blog.csdn.net/qq_43211132/article/details/88287766 阅读全文
摘要:
https://blog.csdn.net/u012328159/article/details/80210363 阅读全文