摘要:
1. 摘要 训练深层的神经网络非常困难,因为在训练的过程中,随着前面层数参数的改变,每层输入的分布也会随之改变。这需要我们设置较小的学习率并且谨慎地对参数进行初始化,因此训练过程比较缓慢。 作者将这种现象称之为 internal covariate shift ,通过对每层的输入进行归一化来解决这个 阅读全文
摘要:
1. 定向选择、不定项选择和填空题 主要考察了卷积神经网络参数量计算、感知野计算、卷积后图像的大小计算、GAN 的损失函数、贝叶斯网络、L1 L2正则化、概率论、Python、Shell、数据库等知识,比较全面琐碎。 2. 编程题 详见 "LeetCode 386——字典序的第 K 小数字" 详见 阅读全文