2018年4月17日

CNN中常见的几种pool操作

摘要: 0. 高 首先回忆一下,CNN中用来加深网络深度的基本操作“Conv-relu-pool”。今天要讲的几种pool方法就是池化层的常用操作(具体来讲,其实是应用于NLP的CNN网络。不过对于图像应该也有所启发,过程不难,可以当小甜点食用)。在第二篇CNN的讲解中,当时的pool层是选用如下图的max 阅读全文

posted @ 2018-04-17 10:24 Allen.c 阅读(926) 评论(0) 推荐(0) 编辑

2018年4月16日

softmax和softmax loss的学习记录

摘要: 0. 喜洋洋 小黑喵教程3之卷积神经网络中的softmax函数和softmax loss。在CNN完成MNIST手写识别的实验中,我们的loss函数选用了softmax loss,但没有多作说明。今天特别的把这一点内容补上,小白喵要认真听课哦。 听到softmax不禁就会想起max。要区别两者的关系 阅读全文

posted @ 2018-04-16 11:16 Allen.c 阅读(351) 评论(0) 推荐(0) 编辑

2018年4月11日

CNN的学习记录

摘要: 0. 一重山 上次讲完了CNN的“启蒙导师”LeNet-5,不知道小猫咪会不会对本猫咪的笨笨教程有一点点的满意呢。我也想和猫咪好好的讨论呢。学完LeNet肯定是要进入CNN的。因为个人觉得CNN就是,延续了“卷积采样-降维”这个特点的同时,加入了一些新操作(当然也不复杂),这些新操作意外的达到了很好 阅读全文

posted @ 2018-04-11 16:20 Allen.c 阅读(272) 评论(0) 推荐(0) 编辑

2018年4月10日

Lenet-5的学习记录

摘要: 0. 红豆生南国 最近没什么动力,在虚机上把几个网络的NLP应用跑了一下,基本过程算和部分的数学推导算是了解了。突然想起某只喵要学习Lenet-5的东西,周一下午的课也拿着之前打印的论文呢,突然像找到了这个阶段的意义一样。之前也用CNN实战了一些,我可能会学得快一点。写这篇博文希望能一点一滴从细节上 阅读全文

posted @ 2018-04-10 20:08 Allen.c 阅读(178) 评论(0) 推荐(0) 编辑

导航