11 2017 档案

摘要:###0.引言 我们发现传统的(如前向网络等)非循环的NN都是假设样本之间无依赖关系(至少时间和顺序上是无依赖关系),而许多学习任务却都涉及到处理序列数据,如image captioning,speech synthesis,music generation是基于模型输出序列数据;如time ser 阅读全文
posted @ 2017-11-29 14:28 仙守 阅读(3860) 评论(0) 推荐(0) 编辑
摘要:##0.背景 机器学习通常评判一个算法的好坏,是基于不同场景下采用不同的指标的。通常来说,有: 准确度;PR (Precision Recall); F测量; [ ] MCC; [ ] BM; [ ] MK; [ ] Gini系数; ROC; [ ] Z score; AUC ; [ ] Cost 阅读全文
posted @ 2017-11-22 18:09 仙守 阅读(5947) 评论(0) 推荐(0) 编辑
摘要:###0.背景 这个模型是《Deep Learning高质量》群里的牛津大神Weidi Xie在介绍他们的VGG face2时候,看到对应的论文《VGGFace2: A dataset for recognising faces across pose and age》中对比实验涉及到的SENet, 阅读全文
posted @ 2017-11-21 12:48 仙守 阅读(3801) 评论(0) 推荐(1) 编辑
摘要:###0.背景 随着CNN变得越来越深,人们发现会有梯度消失的现象。这个问题主要是单路径的信息和梯度的传播,其中的激活函数都是非线性的,从而特别是乘法就可以使得随着层数越深,假设将传统的神经网络的每一层看成是自动机中的一个状态。那么对于整个神经网络来说,输入到输出就是一个输入态不断的转移到输出态的一 阅读全文
posted @ 2017-11-16 17:02 仙守 阅读(1285) 评论(0) 推荐(0) 编辑
摘要:###0.背景 RNN模型,特别是包含着门控制的如LSTM等模型,近年来成了深度学习解决序列任务的标准结构。RNN层不但可以解决变长输入的问题,还能通过多层堆叠来增加网络的深度,提升表征能力和提升准确度。然而,标准的RNN(包括LSTM)受限于无法处理那些具有非常长的序列问题,例如文档分类或者字符级 阅读全文
posted @ 2017-11-11 13:41 仙守 阅读(3858) 评论(1) 推荐(0) 编辑
摘要:###0.背景 对于如机器翻译、语言模型、观点挖掘、问答系统等都依赖于RNN模型,而序列的前后依赖导致RNN并行化较为困难,所以其计算速度远没有CNN那么快。即使不管训练的耗时程度,部署时候只要模型稍微大点,实时性也会受到影响。 Tao Lei等人基于对LSTM、GRU等模型的研究,提出了SRU模型 阅读全文
posted @ 2017-11-08 20:54 仙守 阅读(8050) 评论(1) 推荐(0) 编辑
摘要:0. Introduction 基于纳什平衡,零和游戏,最大最小策略等角度来作为GAN的引言 1. GAN GAN开山之作 图1.1 GAN的判别器和生成器的结构图及loss ###2. Conditional GAN 图2.1 CGAN的目标函数 图2.2 CGAN的判别器和生成器的结构图及los 阅读全文
posted @ 2017-11-07 16:04 仙守 阅读(3147) 评论(0) 推荐(0) 编辑
摘要:###0. 背景 何凯明大神等人在提出了ResNet网络结构之后,对其做了进一步的分析工作,详细的分析了ResNet 构建块能起作用的本质所在。并通过一系列的实验来验证恒等映射的重要性,并由此提出了新的构建块模型使得网络能够更容易训练和更好的泛化性能(比如不同于ResNet v1中对cifar-10 阅读全文
posted @ 2017-11-06 20:45 仙守 阅读(957) 评论(0) 推荐(0) 编辑
摘要:下面的RNN,LSTM,GRU模型图来自这里 简单的综述 1. RNN 图1.1 标准RNN模型的结构 2. BiRNN 3. LSTM 图3.1 LSTM模型的结构 4. Clockwork RNN 5. Depth Gated RNN 6. Grid LSTM 7. DRAW 8. RLVM 9 阅读全文
posted @ 2017-11-06 15:57 仙守 阅读(2011) 评论(0) 推荐(0) 编辑
摘要:###0. 背景 随着何凯明等人提出的ResNet v1,google这边坐不住了,他们基于inception v3的基础上,引入了残差结构,提出了inception-resnet-v1和inception-resnet-v2,并修改inception模块提出了inception v4结构。基于in 阅读全文
posted @ 2017-11-05 15:00 仙守 阅读(14682) 评论(1) 推荐(1) 编辑
摘要:###0. 背景 众所周知,深度学习,要的就是深度,VGG主要的工作贡献就是基于小卷积核的基础上,去探寻网络深度对结果的影响。而何恺明大神等人发现,不是随着网络深度增加,效果就好的,他们发现了一个违背直觉的现象。 图0.1 不同层数的传统网络下的结果表现 最开始,我们认为随着深度的增加,网络效果不好 阅读全文
posted @ 2017-11-01 17:51 仙守 阅读(4159) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示