李燕

  博客园 :: 首页 :: 博问 :: 闪存 :: 新随笔 :: 联系 :: 订阅 订阅 :: 管理 ::

2015年12月6日

摘要: 我们在进行back propagation时难免会出现各种各样的问题,当出现问题的时候,我们的cost function仍然是随着迭代的次数下降的,但是这中间会有一些问题存在,那么我们如何来检查我们的算法是否会出现这些不易被发现的问题呢?gradients的近似表达上面是导数的近似表达式,取左边的双... 阅读全文
posted @ 2015-12-06 19:40 李燕 阅读(280) 评论(0) 推荐(0) 编辑

摘要: 我们需要将parameters从矩阵unrolling到向量,这样我们就可以使用adanced optimization routines.unroll into vectorscostFunction与fminunc里面的theta都是n+1维的向量,costFunction的返回值gradien... 阅读全文
posted @ 2015-12-06 16:44 李燕 阅读(720) 评论(0) 推荐(0) 编辑