摘要:
循环神经网络(Recurrent Neural Network,RNN)是一种别具一格的网络模型,其循环元节点不仅可以接上来自上层的输入数据,也可以接收自身上一次迭代的输出,基于这种特殊的结构,循环神经网络拥有了短期记忆能力,通过“记忆”保存了数据间的关联关系,所以尤为适合处理语言、文本、视频等时序相关的数据。 阅读全文
摘要:
蒙特卡罗(MC,Monte Carlo)方法是一种随机采样模拟求解的方法,又被称统计试验方法或者统计模拟方法。起初,蒙特卡罗方法的提出是20世纪40年代冯·诺伊曼,斯塔尼斯拉夫·乌拉姆和尼古拉斯·梅特罗波利斯等人为推进研制原子弹的“曼哈顿”计划而提出,但大概是因为蒙特卡罗方法是一种随机模拟的方法,与赌博场里面的扔骰子的过程十分相似而以赌城的名字命名这一方法。现如今,这一方法已被广泛应用到科学计算的众多应用领域中。 阅读全文
摘要:
神经网络算法有时候又被称为深度学习,究其原因就是因为神经网络模型可以通过添加网络层数来扩展网络的深度以获得更优越的性能。以CNN网络为例,卷积层数越多,模型越能够提取到更高层次的特征,信息更加丰富。所以,我们不禁要猜想,是不是网络的深度越深,模型的性能越好。如果真是这样,那神经网络就是近乎无所不能的算法,没有什么是添加一层网络不能解决的,如果有,那就添加两层。 阅读全文
摘要:
GoogLeNet是在2014年由Google团队在论文《Going deeper with convolutions》中提出的一个卷积神经网络算法,并成功斩获当年的ImageNet大赛的冠军(上篇博客中的VGG网络获得第二名)。与VGG网络相比,GoogLeNet对网络结构做出了根据创新性的大胆改变 阅读全文
摘要:
VGG的实质是AlexNet结构的增强版,它将卷积层的深度提升到了19层,并且在2014年的ImageNet大赛中的定位问题中获得了亚军(冠军是GoogLeNet,将在下一篇博客中介绍)。 阅读全文
摘要:
上文中实现了LeNet-5卷积网络,不可否认这是一个十分经典的网络结构,但是迫于种种复杂的现实场景限制,只能在一些领域应用,所以在接下来的10年间,卷积网络的锋芒一度被SVN算法覆盖,指导2012年AlexNet的提出。 阅读全文
摘要:
LeNet-5科学家Yann LeCun在1998年发表论文《Gradient based learning applied to document-recognition》上提出的一个神经网络模型,是最早期的卷积神经网络,论文中,作者将LeNet-5应用于于灰度图像的数字识别中获得了不错的效果。关于LeNet-5卷积神经网络原理,在上一篇介绍卷积神经网络入门博客中已经阐述清楚,本篇中,我们主要对LeNet-5使用TensorFlow进行实现。 阅读全文
摘要:
卷积神经网络(Convolutional Neural Networks),通常我们将之简称为ConvNets或者CNN,它是一种在图像识别和分类领域十分流行且行之有效的神经网络。目前,CNN网络已经作为一种非常重要且实用的工具成功应用于人脸识别、机器人和自动驾驶中的目标识别、信号灯识别等应用中。因此,学习卷积神经网络是以前十分有必要的事情。 阅读全文
摘要:
人工神经网络(Artificial Neural Network,ANN) 是一种受人脑生物神经网络信息处理方式启发而诞生的一种计算模型,得益于语音识别、计算机视觉和文本处理方面的许多突破性成果,人工神经网络在机器学习研究和工业领域引起了强烈反响。本篇博客将对人工神经网络算法进行介绍。 阅读全文
摘要:
在前面的博客中已经介绍过如何使用Python来操作MySQL数据库,最近需要将一批数据从csv文件中迁移到Oracle数据库中,也打算用Python来实现,趁着这个机会,也写一篇博客学习总结一些如何使用Python来操作Oracle数据库。 阅读全文