深度学习题库大全-hr.docxVIP

  1. 1、本文档共19页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
选择题 1、梯度下降算法的正确步骤是什么? 计算预测值和真实值之间的误差重复迭代,直至得到网络权重的最佳值 把输入传入网络,得到输出值用随机值初始化权重和偏差 对每一个产生误差的神经元,调整相应的(权重)值以减小误差A.abcdeB.edcbaC.cbaedD.dcaeb 2、什么情况下神经网络模型被称为深度学习模型? A.加入更多层,使神经网络的深度增加B.有维度更高的数据C.当这是一个图形识别的问题时D.以上都不正确 3、下面哪项操作能实现跟神经网络中Dropoul的类似效果? A.BoostingB.BaggingC.StackingD.M 叩 ping4、下列哪一项在神经网络中引入了非线性? A.随机梯度下降B.修正线性单元(ReLU)C.卷积函数D.以上都不正确5、深度学习是当前很热门的机器学习算法,在深度学习中,涉及到大虽的矩阵相乘,现在需要计算三个 稠密矩阵A, B, C的乘积ABC,假设三个矩阵的尺寸分别为n】*n, n*p, p*q,且tn n pq,以下计 算顺序效率最高的是() A^ (AB)CB、AC(B) C、A(BC)D、所有效率都相同6、输入图片大小为 200X200,依次经过一层卷积(kemei size5X5. padding 1, stride2), pooling (kernel size 3X3, paddingO, stride 1),又一层卷积(kernelsize3X3, padding I? stride I)之后,输出特征图 大小为 A、95 B、96 C、97 D、987、神经网络模型(Neural Network)因受人类大脑的启发而得名,神经网络山许多神经元(Neuron)组成, 每个神经元接受一个输入,对输入进行处理后给出一个输出,如卜图所示。请问卜.列关于神经元的描 述中,哪一项是正确的? A、每个神经元可以有一个输入和一个输出B、每个神经元可以有多个输入和一个输出 ? ?* ■绞.LJI ■ 4U ■Amahhea 判断题 假设我们有一个如下图所示的隐藏层。隐藏层在这个网络中起到了一定的降维作用。假如现在我们用另-种维度下降的方法,比如说主成分分析法(PCA)来替代这个隐藏层。两者的输出效果是?样的吗? X 使用降维技术的网络与隐层网络总是有相同的输出吗? X主成分分析是一种有监督学习算法X PCA提取的是数据分布方差比较大的方向,隐藏层可以提取有预测能力的特征VMAImf?utfuttoyw K均值聚类算法是一种无监督学习算法J深度学习与机器学习算法之间的区别在于,后者过程中无需进行特征提取工作,也就是说,我们建议在 进行深度学习过程之前要首先完成特征提取的工作。X 提升卷积核(convolutional kernel)的大小会显著提升卷积神经网络的性能。X当在卷积神经网络中加入RAM (pooling layer)时,变换的不变性会被保留。J CNN采用最大池化能够产生一定程度上的平移不变性J线性方程(y = mx + c)可以说是一种神经元吗? V 在监督学习任务中,输出层中的神经元的数量应该与类的数量(其中类的数虽大于2)匹配。XY = ax” + bx + c (二次多项式)这个方程可以用具有线性阈值的单个隐层的神经网络表示。X 卷积神经网络可以对一个输入完成不同种类的变换(旋转或缩放)。X可以用神经网络对函数(y=l/x)建模。J 增加卷积核的大小对于改进卷积神经网络的效果是必要。X (要考虑数据集)假设在ImageNet数据集(对象识别数据集)上训练卷积神经网络。然后给这个训练模型?个完全白色 的图像作为输入。这个输入的输出概率对于所有类都是相等的。X 训练CNN时,可以对输入进行旋转、平移、缩放(增强数据)等预处理提高模型泛化能力。V决策树是一种面向分类问题的有监督学习算法J 通过增加模型复杂度,那么模型的测试错误率总是会降低XBP算法仅适用于多层前馈神经网络X (RNN, CNN) 前馈神经网络的隐藏单元必须在所有的输入点都可微X如果在一个高度非线性且复杂的-些变量中,-个树模型可能比一般回归模型效果更好V 过拟合只在监督学习中出现,非监督以习没有过拟合X数据维数很高时,很多机器学习问题会变得相当困难,这种现象叫做维数灾难J 训练好的模型在测试集准确率100%,则在新的数据集上也会达到100% X欠拟合是模型不能在训练集上获得足够低的误差,过拟合是指训练误差和测试误差差距小X 一股而言,L2正则化可产生比L1正则化更稀疏的解X感知机学习一定收敛X (条件样本线性可分) 梯度为。的点不一定是局部极值V深度学习是?种特殊的发示学习方法J 多层神经网络本质是是一个复合函数J贝叶斯派统计方法比频率派统计方法估计模型参数更优?J RNN适用于序列数据的处

文档评论(0)

136****3519 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档