摘要:
定义 集成学习是一种机器学习范式,其中多个学习器被训练来解决相同的问题。 这与试图从训练数据中学习一个假设的普通机器学习方法相反,集成方法尝试构造一组假设并将它们结合使用。 一个集合包含一些通常被称为基础学习器的学习器。 一个集合的泛化能力通常比单个基础学习器的泛化能力强得多。 实际上,集成学习具有 阅读全文
摘要:
文章《Rethinking the Inception Architecture for Computer Vision》 介绍 VGG与GoogLeNet相比更朴素,但计算量大。GoogLeNet中的Inception结构设计的目的是减少计算量和内存。GoogLeNet中只有5百万参数,是Alex 阅读全文
摘要:
从GoogLeNet的Inceptionv1开始,发展了众多inception,如inception v2、v3、v4与Inception-ResNet-V2。故事还是要从inception v1开始说起。Inception v1相比于GoogLeNet之前的众多卷积神经网络而言,inception v1采用在同一层中提取不同的特征(使用不同尺寸的卷积核),并提出了卷积核的并行合并(也称为Bott... 阅读全文
摘要:
文献:《Going deeper with convolutions》 目的: 从前面介绍的AlexNet中可以看出,模型中引入了大量的稀疏性,如relu,dropout,pooling等,这样就可能导致网络的计算性能下降。为了既能保持网络结构的稀疏性,又能利用密集矩阵的高计算性能。大量的文献表明可 阅读全文
摘要:
原文:ImageNet Classification with Deep ConvolutionalNeural Networks 一、LeNet局限 在很长时间里,LeNet虽然在小规模的问题上,如手写数字,取得过当时世界最好结果,但一直没有取得巨大成功。这主要原因是,LeNet在大规模图像上效果 阅读全文
摘要:
Lecun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11):2278-2324.(Ⅰ.ind 阅读全文
摘要:
转自http://www.cnblogs.com/lc1217/p/7324935.html1.卷积与神经元1.1 什么是卷积? 简单来说,卷积(或内积)就是一种先把对应位置相乘然后再把结果相加的运算。(具体含义或者数学公式可以查阅相关资料) 如下图就表示卷积的运算过程: (图1... 阅读全文
摘要:
转自http://www.cnblogs.com/lc1217/p/7132364.html 1.关于Keras 1)简介 Keras是由纯python编写的基于theano/tensorflow的深度学习框架。 Keras是一个高层神经网络API,支持快速实验,能够把你的idea迅速转换为结果,如 阅读全文
摘要:
1.什么是神经网络人脑是一个高度复杂的、非线性的和并行的计算机器(信息处理系统)。人脑能够组织他的组成成分,即神经元,以比今天已有的最快的计算机还要快许多倍的速度进行特定的计算(如模式识别、感知和发动机控制)。具体来说,完成一个感知识别任务(例如识别一张被嵌入陌生场景的熟悉的脸)人脑大概需要100~200毫秒,而一台高效的计算机却要花费比人脑多很多的时间才能完成一个相对简单的任务。一个“进化中”的... 阅读全文
摘要:
生成式对抗模型GAN (Generativeadversarial networks) 是Goodfellow等[1]在 2014年提出的一种生成式模型,目前已经成为人工智能学界一个热门的研究方向,著名学者Yann Lecun甚至将其称为“过去十年间机器学习领域最让人激动的点子"。GAN的基本思想源 阅读全文