摘要: 1. 线性拟合问题的迭代解法 batch gradient descent 梯度下降法,每次沿着梯度方向对于参数移动小的距离。 有两种具体实现,一种是每次移动的时候考虑所有的实验点,这种在训练集合较大的时候开销比较大。(如下,每次扫描所有m个试验点) 另外一种是stochastic gradient deseent 扫描每个点的时候就决定了参数的按照该点的梯度进行参数调整。即 每次参数调整只考虑当前一个试验点。这个收敛速度会更快,但是不保证能收敛到最佳,但是如果逐步调小的值可以收敛到最佳。 我个人觉得gradient descent的方法都是依赖起始位置吧,最终都是一个局部最优结果。 2. 矩 阅读全文
posted @ 2011-03-06 10:16 阁子 阅读(1990) 评论(2) 推荐(0) 编辑