上一页 1 ··· 12 13 14 15 16
摘要: 1.这个neural network 的costfunction 看起来很复杂,其实把连加化简,就是上面的普通代价函数在神经网络的应用,只不过把每一层都加起来了。 为什么要初始化θ值? 后向传播涉及的公式的推导,把这些公式独立推导? 编程过程中的完整矩阵变换怎么变换的? 阅读全文
posted @ 2018-03-05 15:39 dgi 阅读(217) 评论(0) 推荐(0) 编辑
摘要: 为什么θ的维度是Sj+1*(Sj+1)? 课堂PPT没有两层单元个数不同的状态,故举一个例子就知道了 Example: If layer 1 has 2 input nodes and layer 2 has 4 activation nodes. Dimension of Θ(1) is goin 阅读全文
posted @ 2018-03-01 23:01 dgi 阅读(102) 评论(0) 推荐(0) 编辑
摘要: 难点1:X和theta的维度变化,怎么变得,为什么? X加了一列1,θ加了一行θ0,因为最后边界是θ0+θ1X1+θ2X2,要符合矩阵运算 难点2:costFunction中grad是什么函数,有什么作用? w.r.t 什么意思? 难点3:linear regression的代价函数和logisti 阅读全文
posted @ 2018-02-25 16:34 dgi 阅读(464) 评论(0) 推荐(0) 编辑
上一页 1 ··· 12 13 14 15 16