摘要:
本文结构: 什么是感知器 有什么用 代码实现 1. 什么是感知器 如下图,这个神经网络中,每个圆圈都是一个神经元,神经元也叫做感知器 只有一个隐藏层的神经网络就能拟合任何一个函数,但是它需要很多很多的神经元。 而深层网络用相对少的神经元就能拟合同样的函数,但是层数增加了,不太容易训练,需要大量的数据 阅读全文
摘要:
本文结构: 模型 训练算法 基于 RNN 的语言模型例子 代码实现 1. 模型 和全连接网络的区别 更细致到向量级的连接图 为什么循环神经网络可以往前看任意多个输入值 循环神经网络种类繁多,今天只看最基本的循环神经网络,这个基础攻克下来,理解拓展形式也不是问题。 首先看它和全连接网络的区别: 下图是 阅读全文
摘要:
本文结构: 什么是 Recurrent Neural Networks ? Recurrent Neural Networks 的优点和应用? 训练 Recurrent Neural Networks 的问题? 如何解决? 何时用 RNN 何时用前馈网络呢? 什么是 Recurrent Neural 阅读全文
摘要:
timeline 1998, Yann LeCun 的 LeNet5 图像特征分布在整个图像上 在具有很少参数的多个位置上提取类似特征时,具有可学习的参数的卷积是个比较有效的方法 在没有应用GPU的时候,能够保存参数和计算就成了一个关键优势 LeNet5并没有把每个像素都作为大型多层神经网络的一个输 阅读全文
摘要:
为了应对神经网络很容易过拟合的问题,2014年 Hinton 提出了一个神器, **Dropout: A Simple Way to Prevent Neural Networks from Overfitting ** (original paper: http://jmlr.org/papers 阅读全文
摘要:
是近些年在机器视觉领域很火的模型,最先由 Yan Lecun 提出。 如果想学细节可以看 Andrej Karpathy 的 cs231n 。 How does it work? 给一张图片,每个圆负责处理图片的一部分。 这些圆就组成了一个 filter。 filter 可以识别图片中是否存在指定的 阅读全文
摘要:
1. 神经网络 在之前写过的一篇文章中也有神经网络的简要概述。轻松看懂机器学习十大常用算法 Neural Networks 适合一个input可能落入至少两个类别里 NN 由若干层神经元,和它们之间的联系组成 第一层是 input 层,最后一层是 output 层 在 hidden 层 和 outp 阅读全文
摘要:
本文结构: 什么是线性单元 有什么用 代码实现 1. 什么是线性单元 线性单元和感知器的区别就是在激活函数: 感知器的 f 是阶越函数: 线性单元的激活函数是线性的: 所以线性模型的公式如下: 2. 有什么用 感知器存在一个问题,就是遇到线性不可分的数据时,就可能无法收敛,所以要使用一个可导的线性函 阅读全文
摘要:
通过本篇文章可以对ML的常用算法有个常识性的认识,没有代码,没有复杂的理论推导,就是图解一下,知道这些算法是什么,它们是怎么应用的,例子主要是分类问题。 每个算法都看了好几个视频,挑出讲的最清晰明了有趣的,便于科普。 以后有时间再对单个算法做深入地解析。 今天的算法如下: 决策树 随机森林算法 逻辑 阅读全文
摘要:
Keras 是一个兼容 Theano 和 Tensorflow 的神经网络高级包, 用他来组件一个神经网络更加快速, 几条语句就搞定了. 而且广泛的兼容性能使 Keras 在 Windows 和 MacOS 或者 Linux 上运行无阻碍. 今天来对比学习一下用 Keras 搭建下面几个常用神经网络 阅读全文