摘要: https://max.book118.com/html/2016/1012/58725436.shtm 阅读全文
posted @ 2018-07-24 20:25 yongbin-H 阅读(251) 评论(0) 推荐(0) 编辑
摘要: https://ww2.mathworks.cn/help/pde/ug/3-d-linear-elasticity-equations-in-toolbox-form.html;jsessionid=a46bb928c190a0047ab105c51f67?s_tid=gn_loc_drop#mw 阅读全文
posted @ 2018-07-24 11:28 yongbin-H 阅读(497) 评论(0) 推荐(0) 编辑
摘要: 一直以来都以为自己对一些算法已经理解了,直到最近才发现,梯度下降都理解的不好。 1 问题的引出 对于上篇中讲到的线性回归,先化一个为一个特征θ1,θ0为偏置项,最后列出的误差函数如下图所示: 手动求解 目标是优化J(θ1),得到其最小化,下图中的×为y(i),下面给出TrainSet,{(1,1), 阅读全文
posted @ 2018-07-24 09:28 yongbin-H 阅读(273) 评论(0) 推荐(0) 编辑
摘要: 在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最常采用的方法之一,另一种常用的方法是最小二乘法。这里就对梯度下降法做一个完整的总结。 1. 梯度 在微积分里面,对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。比如函数 阅读全文
posted @ 2018-07-24 09:02 yongbin-H 阅读(789) 评论(0) 推荐(0) 编辑