• sheng的学习笔记-【中文】【吴恩达课后测验】Course 1 - 神经网络和深度学习 - 第三周测验


    课程1_第3周_测验题

    目录:目录

    第一题

    1.以下哪一项是正确的?

    A. 【  】 a [ 2 ] ( 12 ) a^{[2](12)} a[2](12)是第12层,第2个训练数据的激活向量。

    B. 【  】X是一个矩阵,其中每个列都是一个训练示例。

    C. 【  】 a 4 [ 2 ] a^{[2]}_4 a4[2] 是第2层,第4个训练数据的激活输出。

    D. 【  】 a 4 [ 2 ] a^{[2]}_4 a4[2] 是第2层,第4个神经元的激活输出。

    E. 【  】 a [ 2 ] a^{[2]} a[2] 表示第2层的激活向量。

    F. 【  】 a [ 2 ] ( 12 ) a^{[2](12)} a[2](12)是第2层,第12个数据的激活向量。

    G. 【  】 X X X是一个矩阵,其中每个行是一个训练数据。

    答案:

    B.【 √ 】X是一个矩阵,其中每个列都是一个训练示例。

    D.【 √ 】 a 4 [ 2 ] a^{[2]}_4 a4[2] 是第2层,第4个神经元的激活输出。

    E.【 √ 】 a [ 2 ] a^{[2]} a[2] 表示第2层的激活向量。

    F.【 √ 】 a [ 2 ] ( 12 ) a^{[2](12)} a[2](12)是第2层,第12个数据的激活向量。

    第二题

    2.对于隐藏单元,tanh激活通常比sigmoid激活函数更有效,因为其输出的平均值接近于零,因此它可以更好地将数据集中到下一层。

    A. 【  】对
    B. 【  】不对

    答案:

    A.【 √ 】对

    note:正如tanh所看到的,tanh的输出在-1和1之间,因此它将数据集中在一起,使得下一层的学习变得更加简单。

    第三题

    3.以下哪一个是层的正向传播的正确矢量化实现,其中 1 ≤ l ≤ L 1 \le l \le L 1lL

    A. 【  】

    Z [ l ] = W [ l ] A [ l ] + b [ l ] Z^{[l]}=W^{[l]}A^{[l]}+b^{[l]} Z[l]=W[l]A[l]+b[l]

    A [ l + 1 ] = g [ l ] ( Z [ l ] ) A^{[l+1]}=g^{[l]}(Z^{[l]}) A[l+1]=g[l](Z[l])

    B. 【  】

    Z [ l ] = W [ l ] A [ l ] + b [ l ] Z^{[l]}=W^{[l]}A^{[l]}+b^{[l]} Z[l]=W[l]A[l]+b[l]

    A [ l + 1 ] = g [ l + 1 ] ( Z [ l ] ) A^{[l+1]}=g^{[l+1]}(Z^{[l]}) A[l+1]=g[l+1](Z[l])

    C. 【  】

    Z [ l ] = W [ l − 1 ] A [ l ] + b [ l ] Z^{[l]}=W^{[l-1]}A^{[l]}+b^{[l]} Z[l]=W[l1]A[l]+b[l]

    A [ l ] = g [ l ] ( Z [ l ] ) A^{[l]}=g^{[l]}(Z^{[l]}) A[l]=g[l](Z[l])

    D. 【  】

    Z [ l ] = W [ l ] A [ l − 1 ] + b [ l ] Z^{[l]}=W^{[l]}A^{[l-1]}+b^{[l]} Z[l]=W[l]A[l1]+b[l]

    A [ l ] = g [ l ] ( Z [ l ] ) A^{[l]}=g^{[l]}(Z^{[l]}) A[l]=g[l](Z[l])

    答案:

    D.【 √ 】

    Z [ l ] = W [ l ] A [ l − 1 ] + b [ l ] Z^{[l]}=W^{[l]}A^{[l-1]}+b^{[l]} Z[l]=W[l]A[l1]+b[l]

    A [ l ] = g [ l ] ( Z [ l ] ) A^{[l]}=g^{[l]}(Z^{[l]}) A[l]=g[l](Z[l])

    第四题

    4.您正在构建一个用于识别黄瓜(y=1)与西瓜(y=0)的二进制分类器。对于输出层,您建议使用哪一个激活函数

    A. 【  】ReLU
    B. 【  】Leaky ReLU
    C. 【  】sigmoid
    D. 【  】tanh

    答案:

    C.【 √ 】sigmoid

    note:

    1. 来自sigmoid函数的输出值可以很容易地理解为概率。
    2. Sigmoid输出的值介于0和1之间,这使其成为二元分类的一个非常好的选择。 如果输出小于0.5,则可以将其归类为0,如果输出大于0.5,则归类为1。 它也可以用tanh来完成,但是它不太方便,因为输出在-1和1之间。

    第五题

    5.考虑以下代码:
    A = np.random.randn(4,3)
    B = np.sum(A, axis = 1, keepdims = True)
    B.shape是多少?

    A. 【  】(4,)

    B. 【  】(1, 3)

    C. 【  】(, 3)

    D. 【  】(4, 1)

    答案:

    D.【 √ 】shape = (4, 1)

    note:我们使用(keepdims = True)来确保A.shape是(4,1)而不是(4,),它使我们的代码更加严格。

    第六题

    6.假设你已经建立了一个神经网络。您决定将权重和偏差初始化为零。以下哪项陈述是正确的?(选出所有正确项)

    A. 【  】第一隐藏层中的每个神经元将执行相同的计算。因此,即使在梯度下降的多次迭代之后,层中的每个神经元将执行与其他神经元相同的计算。

    B. 【  】第一隐层中的每个神经元在第一次迭代中执行相同的计算。但是在梯度下降的一次迭代之后,他们将学会计算不同的东西,因为我们已经“破坏了对称性”。

    C. 【  】第一个隐藏层中的每个神经元将执行相同的计算,但不同层中的神经元执行不同的计算,因此我们完成了课堂上所描述的“对称性破坏”。

    D. 【  】即使在第一次迭代中,第一个隐藏层的神经元也会执行不同的计算,因此,它们的参数会以自己的方式不断演化。

    答案:

    A.【 √ 】第一个隐藏层中的每个神经元节点将执行相同的计算。 所以即使经过多次梯度下降迭代后,层中的每个神经元节点都会计算出与其他神经元节点相同的东西。

    第七题

    7.逻辑回归的权重w应该随机初始化,而不是全部初始化为全部零,否则,逻辑回归将无法学习有用的决策边界,因为它将无法“打破对称”。

    A. 【  】对
    B. 【  】不对

    答案:

    B.【 √ 】不对

    note:
    Logistic回归没有隐藏层。 如果将权重初始化为零,则Logistic回归中的第一个示例x将输出零,但Logistic回归的导数取决于不是零的输入x(因为没有隐藏层)。 因此,在第二次迭代中,如果x不是常量向量,则权值遵循x的分布并且彼此不同。

    第八题

    8.你已经为所有隐藏的单位建立了一个使用tanh激活的网络。使用np.random.randn(…, …) * 1000将权重初始化为相对较大的值。会发生什么?

    A. 【  】没关系。只要随机初始化权重,梯度下降不受权重大小的影响。

    B. 【  】这将导致tanh的输入也非常大,从而导致梯度也变大。因此,你必须将设置得非常小,以防止发散;这将减慢学习速度。

    C. 【  】这将导致tanh的输入也非常大,导致单元被“高度激活”。与权重从小值开始相比,加快了学习速度。

    D. 【  】这将导致tanh的输入也非常大,从而导致梯度接近于零。因此,优化算法将变得缓慢。

    答案:

    D.【 √ 】这将导致tanh的输入也很大,因此导致梯度接近于零, 优化算法将因此变得缓慢。

    note:tanh对于较大的值变得平坦,这导致其梯度接近于零。 这减慢了优化算法。

    第九题

    9.考虑以下1个隐层的神经网络:
    在这里插入图片描述

    A. 【  】 W [ 1 ] W^{[1]} W[1]的形状是(2, 4)

    B. 【  】 b [ 1 ] b^{[1]} b[1]的形状是(4, 1)

    C. 【  】 W [ 1 ] W^{[1]} W[1]的形状是(4, 2)

    D. 【  】 b [ 1 ] b^{[1]} b[1]的形状是(2, 1)

    E. 【  】 W [ 2 ] W^{[2]} W[2]的形状是(1, 4)

    F. 【  】 b [ 2 ] b^{[2]} b[2]的形状是(4, 1)

    G. 【  】 W [ 2 ] W^{[2]} W[2]的形状是(4, 1)

    H. 【  】 b [ 2 ] b^{[2]} b[2]的形状是(1, 1)

    答案:

    B.【 √ 】 b [ 1 ] b^{[1]} b[1]的形状是(4, 1)

    C.【 √ 】 W [ 1 ] W^{[1]} W[1]的形状是(4, 2)

    E.【 √ 】 W [ 2 ] W^{[2]} W[2]的形状是(1, 4)

    H.【 √ 】 b [ 2 ] b^{[2]} b[2]的形状是(1, 1)

    第十题

    10.在和上一问相同的网络中, Z [ 1 ] Z^{[1]} Z[1] A [ 1 ] A^{[1]} A[1]的维度是多少?

    A. 【  】 Z [ 1 ] Z^{[1]} Z[1] A [ 1 ] A^{[1]} A[1]是(4,1)

    B. 【  】 Z [ 1 ] Z^{[1]} Z[1] A [ 1 ] A^{[1]} A[1]是(1,4)

    C. 【  】 Z [ 1 ] Z^{[1]} Z[1] A [ 1 ] A^{[1]} A[1]是(4,m)

    D. 【  】 Z [ 1 ] Z^{[1]} Z[1] A [ 1 ] A^{[1]} A[1]是(4,2)

    答案:

    C.【 √ 】 Z [ 1 ] Z^{[1]} Z[1] A [ 1 ] A^{[1]} A[1]是(4,m)

  • 相关阅读:
    【TensorFlow2 之013】TensorFlow-Lite
    简单shell脚本的编写
    Move 学习记录
    结合RocketMQ 源码,带你了解并发编程的三大神器
    ZooKeeper SSL User Guide
    【CVPR2020】DEF:Seeing Through Fog Without Seeing Fog论文阅读分析与总结
    零跑C01用低配车型教BBA重新诠释智能与豪华
    dig 简明教程
    【前端】CSS(3) —— CSS的盒模型与弹性布局
    【MySQL】视图操作
  • 原文地址:https://blog.csdn.net/coldstarry/article/details/133560002