吴恩达 — 神经网络与深度学习 — L2W1练习

课程二 - 改善深层神经网络

第一周 - 深度学习的实践

第 41 题

如果你有10,000,000个例子,你会如何划分训练/开发/测试集?

A.33%训练,33%开发,33%测试

B.60%训练,20%开发,20%测试

C.98%训练,1%开发,1%测试

第 42 题

开发和测试集应该:

A.来自同一分布

B.来自不同分布

C.完全相同(一样的(x, y)对)

D.数据数量应该相同

第 43 题

如果你的神经网络方差很高,下列哪个尝试是可能解决问题的?

A.添加正则项

B.获取更多测试数据

C.增加每个隐藏层的神经元数量

D.用更深的神经网络

E.用更多的训练数据

第 44 题

你正在为苹果,香蕉和橘子制作分类器。 假设您的分类器在训练集上有0.5%的错误,以及开发集上有7%的错误。 以下哪项尝试是有希望改善你的分类器的分类效果的?

A.增大正则化参数\(\lambda\)

B.减小正则化参数\(\lambda\)

C.获取更多训练数据

D.用更大的神经网络

第 45 题

什么是权重衰减?

A.正则化技术(例如L2正则化)导致梯度下降在每次迭代时权重收缩

B.在训练过程中逐渐降低学习率的过程

C.如果神经网络是在噪声数据下训练的,那么神经网络的权值会逐渐损坏

D.通过对权重值设置上限来避免梯度消失的技术

第 46 题

当你增大正则化的超参数\(\lambda\)时会发生什么?

A.权重变小(接近0)

B.权重变大(远离0)

C.2倍的\(\lambda\)导致2倍的权重

D.每次迭代,梯度下降采取更大的步距(与\(\lambda\)成正比)

第 47 题

在测试时候使用dropout:

A.不随机关闭神经元,但保留1/keep_brob因子

B.随机关闭神经元,保留1/keep_brob因子

C.随机关闭神经元,但不保留1/keep_brob因子

D.不随机关闭神经元,也不保留1/keep_brob因子

第 48 题

将参数keep_prob从(比如说)0.5增加到0.6可能会导致以下情况(选出所有正确项):

A.正则化效应被增强

B.正则化效应被减弱

C.训练集的误差会增加

D.训练集的误差会减小

第 49 题

以下哪些技术可用于减少方差(减少过拟合)?(选出所有正确项)

A.梯度消失

B.数据扩充

C.Dropout

D.梯度检查

E.Xavier初始化

F.L2正则化

G.梯度爆炸

第 50 题

为什么要对输入\(x\)进行归一化?

A.让参数初始化更快

B.让代价函数更快地优化

C.更容易做数据可视化

D.是另一种正则化——有助减少方差

41-50题 答案

41.C 42.A 43.AE 44.AC 45.A 46.A 47.D 48.BD 49.BCF 50.B

posted @ 2020-02-05 18:51  ItsukiFujii  阅读(730)  评论(0编辑  收藏  举报