简约机器学习复习笔记/速查手册
阅读过一些大家公布在网上自己的机器学习笔记,向这些作者至敬,深知总结和发布文章的不易。这篇文章与其他笔记不同,目的在于快速的帮助回忆起一些概念和算法/模型的结构,基本公式。所以,不会出现有大段的公式推导,更不会有大片的PPT和公式贴图。尽力将基本细节用最少的语言和图表描述清楚。
例如:帮助一些刚刚接触相关内容的同学,在他们学习过一段时间后,记忆变得比较模糊,便可以通过阅读这篇文章快速的回忆起相关的重点内容;对于一些已经有丰富经验或者工作的人来说,在想到相关概念但是又忘记了一些基本的细节的时候,可以通过这篇文章快速的找到自己需要的公式或者结构图。或者,突然想不起来Adam算法大概是怎么回事,可以通过大概看一眼文章的描述便可以想起主要思想。
真心的欢迎提出改进的建议和想法!
(持续更新中...)
文章目录:
- Activation Functions 常用的激活函数和对应的导数公式
- Gradient Descent 梯度下降
- Computation Graph 计算图
- Backpropagation 利用计算图来解释反向传播算法,如何求每个参数的导数
- Gradients for L2 Regularization (weight decay) L2正则
- Vanishing/Exploding Gradients 梯度爆炸,梯度衰减
- Mini-Batch Gradient Descent
- Stochastic Gradient Descent
- Choosing Mini-Batch Size 选择min-batch的大小
- Gradient Descent with Momentum (always faster than SGD)
- Gradient Descent with RMSprop
- Adam (put Momentum and RMSprop together)
- Learning Rate Decay Methods
- Batch Normalization
- Parameters 参数相关
- Learnable and Hyper Parameters 可以学习的参数以及神经网络中的超参数
- Parameters Initialization 初始化参数的值
- Hyper Parameter Tuning 超参数的调参
- Regularization
- Models
- Logistic Regression
- Multi-Class Classification (Softmax Regression)
- Transfer Learning
- Multi-task Learning
- Convolutional Neural Network (CNN)
- Filter/Kernel
- Stride
- Padding (valid and same convolutions)
- A Convolutional Layer
- 1*1 Convolution
- Pooling Layer (Max and Average Pooling)
- LeNet-5
- AlexNet
- VGG-16
- ResNet (More Advanced and Powerful)
- Inception Network
- Object Detection
- Bounding Box Predictions (Basics of YOLO)
- Intersection Over Union
- Non-max Suppression
- Anchor Boxes
- Face Verification
- Neural Style Transfer
- Sequence Models
- Practical Tips 实战经验