会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
一扇窗
make something great ! 花苦功夫扎扎实实把每一个细节搞清楚!
博客园
首页
新随笔
联系
订阅
管理
2018年3月5日
Week5:Neural Network BackPropagation疑难点记录
摘要: 1.这个neural network 的costfunction 看起来很复杂,其实把连加化简,就是上面的普通代价函数在神经网络的应用,只不过把每一层都加起来了。 为什么要初始化θ值? 后向传播涉及的公式的推导,把这些公式独立推导? 编程过程中的完整矩阵变换怎么变换的?
阅读全文
posted @ 2018-03-05 15:39 dgi
阅读(217)
评论(0)
推荐(0)
编辑
公告