网站大量收购独家精品文档,联系QQ:2885784924

深度学习及其应用期末测试练习题及答案.pdf

深度学习及其应用期末测试练习题及答案.pdf

  1. 1、本文档共14页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

一、单选题

1、对于某卷积层,关于卷积核大小的描述(假设通道数固定)正确

的是哪个?

A.卷积核越小,更新参数的计算量越少,但更容易得到局部的特征。

B.卷积核越大,其取得的特征越全面,得到的特征图越大。

C.卷积核越大,越容易提取细节特征

D.卷积核只能选择3、5、7等奇数值。

正确答案:A

2、下面有关神经网络梯度消失说法错误的是()

​A.当神经网络的隐层增加时,就容易发生梯度消失问题,表现在靠

近输入层的权重难以更新。

B.网络梯度消失可以通过改变隐层和输出层的神经元激活函数减弱。

C.网络梯度消失可能导致有些权重难以更新,导致网路训练失败。

D.网络梯度消失可以通过减少隐层神经元的个数减弱。

正确答案:D

3、假设卷积神经网络某隐层的特征图大小是19*19*8,其中8是通

道数,使用大小为3*3的12个卷积核,步长为2,没有padding对此

隐层进行操作,得到的特征图大小是?

A.8*8*8

B.8*8*12

C.9*9*12

D.14*14*8

正确答案:C

4、卷积神经网络隐层神经元的数量与下面哪些因素无关?

A.输入图像大小

B.卷积核大小

C.步长

D.激活函数

正确答案:D

5、以下哪个有关卷积神经网络的说法是错误的?

A.输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参

数量是260(含偏置)

B.使用激活函数Relu的收敛速度比Sigmoid要快一些

C.隐层的神经元输入输出可以看成一个相关权重和偏置的复合非线

性多元函数。

D.在网络规模相同的情况下,增加网络深度比增加宽度能带来更强的

网络特征获取能力

正确答案:A

6、以下哪个关于卷积神经网络的说法是错误的?

A.卷积神经网络训练时值学习每层神经元的阈值

B.AlexNet是一个8层的卷积神经网络

C.目标检测网络Yolo网络结构中包含卷积层

D.典型的卷积神经网络是由卷积层、池化层和全连接层等组成

正确答案:A

7、下列对于生成式对抗网络的叙述,哪个是错误的?

A.训练可能不稳定

B.可以产生清晰且真实的样本

C.仅由一个生成网络与一个判别网络组成

D.属于无监督学习

正确答案:C

8、假设卷积神经网络某卷积层的输入和输出特征图大小分别为

63*63*16和33*33*64,卷积核大小是3*3,步长为2,那么Padding

值为多少?

A.0

B.3

C.2

D.1

正确答案:C

9、有关一般卷积神经网络的组成,下面哪种说法是正确的?

A.卷积神经网络的层次结构依次是由输入层、卷积层、池化层、激活

层和全连接层组成

B.卷积神经网络的层次结构依次是由输入层、池化层、卷积层、激活

层和全连接层组成

C.卷积神经网络的层次结构依次是由输入层、卷积层、激活层、池化

层和全连接层组成

D.卷积神经网络的层次结构依次是由输入层、激活层、卷积层、池化

层和全连接层组成

正确答案:C

10、有关卷积神经网络的说法哪个是正确的?

A.在卷积层后面使用池化操作,可以减少网络可以训练的参数量

B.1*1的卷积没有改变特征图的大小,因此没有获得新的特征

C.不同卷积层或同一卷积层只能用一种大小的卷积核

D.类似AlexNet网络使用的分组卷积可以增加卷积层的参数量,降低

网络训练速度

正确答案:A

11、有关循环神经网络激活函数的说法,以下哪个是错误的?

A.ReLU可以减少循环神经网络的梯度消失问题

B.Sigmoid函数相对于Tanh函数来说更容易导致梯度消失

C.取Tanh或Sigmoid函数作为激活函数,做梯度下降时,偏导数是一

堆小数在做乘法,容易导致网络梯度消失。

D.Tanh函数相对于Sigmoid函数来说梯度较小,收敛速度更快更慢

正确答案:D

12、在长短期记忆网络中,使用了两种激活函数,下面哪种说法是错

误的?

A.两种激活函数的作用是不同的

B.两种激活函数共同确定有多少学习到的信息可以流转下去

C.两种激活函数互换会影响网络的性能和可解释性

D.两种激活函数的作用是相似的

正确答案:D

13、有关生成对抗网络的训练,哪个说法是正确的?

A.在训练时,只要把判别网络的性能训练足够强,就可以生成高质量

的样本

B.因为生成对抗网络是无监督学习,其训练不需要很多真实的样本

C.判别网络和生成网络的损失函数是没有冲突的,两者共同构成生成

对抗网络的总损失函数

D.判别网络和生成网络的训练是交替进行的

正确答案:D

文档评论(0)

A~下一站守候 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档