2019年11月20日

从神经网络到深度学习

摘要: 监督学习:标注数据 半监督学习:标注数据和未标注数据 无监督学习:未标注学习 监督学习的性能最可靠,用于企业 通常层间神经元不相通 损失函数:每次都找下山最快的方向(梯度下降法)依赖于网络初始值 神经网络的缺点: 局部最优:下山不一定到最低点 梯度弥散:如:1 0.5 0.25 0.125(接近0) 阅读全文

posted @ 2019-11-20 19:31 cltt 阅读(314) 评论(0) 推荐(0) 编辑

卷积神经网络

摘要: 一个卷积核是3维的(Ci*k*k),一个卷积层是4维的 Ci :输入通道数 ,padding :左右两边补零的数量 stride :步长,滑窗隔几个滑一下 。padding 和K 要匹配使用 没有提取任何的空间信息,只是简单的缩放 2(Ci/2*K*K/Co/2) 正常卷积的1/2。一般显卡不够用的 阅读全文

posted @ 2019-11-20 17:00 cltt 阅读(251) 评论(0) 推荐(0) 编辑

导航