网站大量收购闲置独家精品文档,联系QQ:2885784924

AI面试必备深度学习100问1-50题答案解析.pdfVIP

AI面试必备深度学习100问1-50题答案解析.pdf

  1. 1、本文档共12页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

AI⾯⾯试试必必备备深深度度学学习习100问问1-50题题答答案案解解析析

1、梯度下降算法的正确步骤,(正确步骤dcaeb)(梯度下降法其实是据函数的梯度来确定函数的极⼩值),这⾥的问题与其说是梯度

下降算法的步骤不如说类似图图像分类训练的整个流程:⽹络初始化-输⼊to输出-期望输出与实际差值-据误差计算更新权值-迭代进⾏。

a.计算预测值和真实值之间的误差;b.重复迭代,直⾄得到⽹络权重的最佳值;c.把输⼊传⼊⽹络,得到输出值;d.⽤随机值初始化权重

和偏差;e.对每⼀个产⽣误差的神经元,调整相应的(权重)值以减⼩误差。

2、已知:⼤脑是有很多个叫做神经元的东西构成,神经⽹络是对⼤脑的简单的数学表达。每⼀个神经元都有输⼊、处理函数和输出。神经

元组合起来形成了⽹络,可以拟合任何函数。为了得到最佳的神经⽹络,我们⽤梯度下降⽅法不断更新模型。

给定上述关于神经⽹络的描述,什么情况下神经⽹络模型被称为深度学习模型?(正确是A)

A.加⼊更多层,使神经⽹络的深度增加;B.有维度更⾼的数据;C.当这是⼀个图形识别的问题时;D.以上都不正确

神经⽹络理论上说是仿照⽣物神经学⼀层层迭代处理结构(⽣物学认为视觉系统是层级结构),层层抽象与迭代,多少层算深层结构没有硬

性的规定,⼀般要超过2层。

3、训练CNN时,可以对输⼊进⾏旋转、平移、缩放等预处理提⾼模型泛化能⼒。这么说是对,还是不对?(正确答案:对)

扩充数据是提⾼泛化能⼒常⽤的⽅式,对数据的平移、旋转等是对CNN训练数据的扩充的操作⽅式。

4、下⾯哪项操作能实现跟神经⽹络中Dropout的类似效果?

A.BoostingB.BaggingC.StackingD.Mapping(正确:B)

典型的神经⽹络其训练流程是将输⼊通过⽹络进⾏正向传导,然后将误差进⾏反向传播,Dropout就是针对这⼀过程之中,随机地删除隐藏

层的部分单元,进⾏上述过程。步骤为:1)随机删除⽹络中的⼀些隐藏神经元,保持输⼊输出神经元不变;2)将输⼊通过修改后的⽹络进

⾏前向传播,然后将误差通过修改后的⽹络进⾏反向传播;3)对于另外⼀批的训练样本,重复上述操作。他的作为从Hinton的原⽂以及后

续的⼤量实验论证发现,dropout可以⽐较有效地减轻过拟合的发⽣,⼀定程度上达到了正则化的效果。A:Boosting⽅法是⼀种⽤来提⾼弱分

类算法准确度的⽅法这种⽅法通过构造⼀个预测函数系列然后以⼀定的⽅式将他们组合成⼀个预测函数。B:bagging同样是弱分类器组合

的思路,它⾸先随机地抽取训练集(trainingset),以之为基础训练多个弱分类器。然后通过取平均,或者投票(voting)的⽅式决定最终的分

类结果。因为它随机选取训练集的特点,Bagging可以⼀定程度上避免过渡拟合(overfit)。C:stacking:它所做的是在多个分类器的结果上,

再套⼀个新的分类器。这个新的分类器就基于弱分类器的分析结果,加上训练标签(traininglabel)进⾏训练。⼀般这最后⼀层⽤的是LR。

D:SammonMapping降维算法。

5、下列哪⼀项在神经⽹络中引⼊了⾮线性?(正确:B)

A.随机梯度下降;B.修正线性单元(ReLU);C.卷积函数;D.以上都不正确

线性=齐次性+可加性齐次性是指类似于:f(ax)=af(x)可加性是指类似于:f(x+y)=f(x)+f(y)

这⾥没有太多特别的原因就是⼀个名字.⾮线性当然就是这两条⾄少之⼀不成⽴。修正线性单元是⾮线性的激活函数。

6.CNN的卷积核是单层的还是多层的?

⼀般⽽⾔,深度卷积⽹络是⼀层⼜⼀层的。层的本质是特征图存贮输⼊数据或其中间表⽰值。⼀组卷积核则是联系前后两层的⽹络参数表

达体训练的⽬标就是每个卷积核的权重参数组。描述⽹络模型中某层的厚度,通常⽤名词通道channel数或者特征图featuremap数。不过

⼈们更习惯把作为数据输⼊的前层的厚度称之为通道数(⽐如RGB三⾊图层称为输⼊通道数为3),把作为卷积输出的后层的厚度称之为特

征图数。卷积核(filter)⼀般是3D多层的,除了⾯积参数⽐如3x3之外还有厚度参数H(2D的视为厚度1).还有⼀个属性是卷积核的个数N。

卷积核的厚度H⼀般等于前层厚度M(输⼊通道数或featuremap数).特殊情况MH。卷积核的个数N⼀般等于后层厚度(后层featuremaps

数,因为相等所以也⽤N表⽰)。卷积

文档评论(0)

139****2118 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档