《机器学习-Python实践》试卷及答案 卷7.docx

《机器学习-Python实践》试卷及答案 卷7.docx

  1. 1、本文档共8页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

第PAGE1页,共NUMPAGES1页

一、单项选择题(本大题共10小题,每题3分,共30分)试卷(

试卷

(学年第1学期)

考试科目机器学习-Python实践(A卷)

适用专业班级(年级)得分

命题人:审阅人:

班级学号姓名考试科目

装订线

1、如果使用线性回归模型,下列说法正确的是?()

A.检查异常值是很重要的,因为线性回归对离群效应很敏感

B.线性回归分析要求所有变量特征都必须具有正态分布

C.线性回归假设数据中基本没有多重共线性

D.以上说法都不对

2、建立线性模型时,我们看变量之间的相关性。在寻找相关矩阵中的相关系数时,如果发现3对变量(Var1和Var2、Var2和Var3、Var3和Var1)之间的相关性分别为-0.98、0.45和1.23。我们能从中推断出什么呢?()

A.Var1和Var2具有很高的相关性

B.Var1和Var2存在多重共线性,模型可以去掉其中一个特征

C.Var3和Var1相关系数为1.23是不可能的

D.以上都对

3、下列哪种方法可以用来减小过拟合?(多选)()

A.更多的训练数据

B.L1正则化

C.L2正则化

D.减小模型的复杂度

4、向量X=[1,2,3,4,-9,0]的L1范数为?()

A.1

B.19

C.6

D.√111

5、关于L1、L2正则化下列说法正确的是?()

A.L2正则化能防止过拟合,提升模型的泛化能力,但L1做不到这点

B.L2正则化技术又称为LassoRegularization

C.L1正则化得到的解更加稀疏

D.L2正则化得到的解更加稀疏

6、有N个样本,一般用于训练,一般用于测试。若增大N值,则训 练误差和测试误差之间的差距会如何变化?()

A.增大

B.减小

C.不变

D.以上均不对

7、在回归模型中,下列哪一项在权衡欠拟合(under-fitting)和过拟 合(over-fitting)中影响最大?()

A.多项式阶数

B.更新权重w时,使用的是矩阵求逆还是梯度下降

C.使用常数项

D.学习率

8、输入层中的节点数为10,隐层为5。从输入层到隐层的最大连接数 为??()

A.50?

B.Lessthan50?

C.Morethan50?

D.Itisanarbitraryvalue?

9、如果我们希望预测n个类(p1,p2..pk)的概率,使得所有n的p 的和等于1,则以下哪个函数可以用作输出层中的激活函数??()

A.Softmax?

B.ReLu?

C.Sigmoid?

D.Tanh??

10、采取什么措施不可以防止过拟合?()

A.数据压缩;?

B.权值共享;?

C.提前结束模型迭代;?

D.采用dropout;

二、判断题(本大题共10小题,每题1分,共10分)

1、FP——将负类预测为正类数。()

2、交叉熵损失函数的好处是可以克服方差代价函数更新权重过慢的问 题。()

3、逻辑回归假设数据服从伯努利分布,通过极大化似然函数的方法, 运用梯度下降来求解参数,来达到将数据二分类的目的。()

4、SVM无法做多分类。()

5、SVM不涉及核函数。()

6、BGD计算根据全部样本的构造出来的代价函数的梯度。()

7、SGD计算根据全部样本构造出来的代价函数的梯度。()

8、Bagging:训练集是在原始集中有放回抽取的,从原始集中选出的训练集之间是独立的。()

9、Boosting:根据错误率不断调整样本的权值,错误率越大则权值越大。()

10、Bagging:每个样本的权重相等。()

三、填空(本大题共10小题,每题3分,共30分)

1、熵指的是体系的的程度。

2、信息越有序,信息熵越。

3、训练过程中用到的数据叫。

4、分类是预测,比如把人分为好人和坏人之类的学习

文档评论(0)

xiaobao + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档