动手学深度学习 | 目录 | 00
目录
- 安装 | 01
- 数据操作+数据预处理 | 02
- 线性代数 | 03
- 矩阵计算 | 04
- 自动求导 | 05
- 线性回归+基础优化算法 | 06
- Softmax回归+损失函数+图片分类数据集 | 07
- 多层感知机+代码实现 | 08
- 模型选择+过拟合和欠拟合 | 09
- 权重衰退 | 10
- 丢弃法 | 11
- 数值稳定性+模型初始化和激活函数 | 12
- 实战:Kaggle房价预测+课程竞赛:加州2020年房价预测 | 13
- PyTorch神经网络基础 | 14
- 使用和购买GPU | 15
- 预测房价竞赛总结 | 16
- 卷积层 | 17
- 卷积层里的填充和步幅 | 18
- 卷积层里的多输入多输出通道 | 19
- 池化层 | 20
- 经典卷积神经网络LeNet | 21
- 深度卷积神经网络AlexNet | 22
- 使用块的网络VGG | 23
- 网络中的网络NiN | 24
- 含并行连结的网络GoogLeNet/Inception V3 | 25
- 批量归一化 | 26
- 残差网络 ResNet | 27
- ResNet为什么能训练出1000层的模型 | 28
- 第二部分完结竞赛:图片分类 | 29
- 深度学习硬件:CPU和GPU | 30
- 深度学习硬件:TPU和其他 | 31
- 单机多卡并行 | 32
- 多GPU训练实现 | 33
- 分布式训练 | 34
- 数据增广 | 35
- 微调 | 36
- 第二次竞赛:树叶分类结果 | 37
- 实战Kaggle比赛:图像分类(CIFAR-10)| 38
- 实战Kaggle比赛:狗的品种识别(ImageNet Dogs)|39
- 物体检测和数据集 | 40
- 锚框 | 41
- 树叶分类竞赛技术总结 | 42
- 物体检测算法:R-CNN、SSD、YOLO | 43
- SSD实现 | 44
- 语义分割和数据集 | 45
- 转置卷积 | 46
- 转置卷积是一种卷积 | 47
- 全连接卷积神经网络FCN | 48
- 样式迁移 | 49
- 课程竞赛:牛仔行头检测 | 50
- 序列模型 | 51
- 文本预处理 | 52
- 语言模型 | 53
- 循环神经网络RNN | 54
- 循环神经网络RNN的实现 | 55
- 门控制循环单元(GRU)| 56
- 长短期记忆网络(LSTM)| 57
- 深层循环神经网络| 58
- 双向循环神经网络 | 59
- 机器翻译数据集 | 60
- 编码器-解码器架构 | 61
- 序列到序列学习(seq2seq)| 62
- 束搜索 | 63
- 注意力机制 | 64
- 注意力分数 | 65
- 注意力机制结构 | 66
- 自注意力 | 67
- Transformer | 68
- BERT预训练 | 69
- BERT微调 | 70
- 目标检测竞赛总结 | 71
- 优化算法 | 72
安装 | 01
数据操作+数据预处理 | 02
线性代数 | 03
矩阵计算 | 04
自动求导 | 05
线性回归+基础优化算法 | 06
Softmax回归+损失函数+图片分类数据集 | 07
多层感知机+代码实现 | 08
模型选择+过拟合和欠拟合 | 09
权重衰退 | 10
丢弃法 | 11
数值稳定性+模型初始化和激活函数 | 12
实战:Kaggle房价预测+课程竞赛:加州2020年房价预测 | 13
实战:Kaggle房价预测+课程竞赛:加州2020年房价预测 | 13
PyTorch神经网络基础 | 14
使用和购买GPU | 15
预测房价竞赛总结 | 16
卷积层 | 17
卷积层里的填充和步幅 | 18
卷积层里的多输入多输出通道 | 19
池化层 | 20
经典卷积神经网络LeNet | 21
深度卷积神经网络AlexNet | 22
使用块的网络VGG | 23
网络中的网络NiN | 24
含并行连结的网络GoogLeNet/Inception V3 | 25
含并行连结的网络GoogLeNet/Inception V3 | 25