- 1、本文档共9页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
第PAGE1页,共NUMPAGES1页
一、单项选择题(本大题共10小题,每题3分,共30分)试卷(
试卷
(学年第1学期)
考试科目机器学习-Python实践(A卷)
适用专业班级(年级)得分
命题人:审阅人:
班级学号姓名考试科目
装订线
1、关于支持向量机SVM,下列说法错误的是()
A.L2正则项,作用是最大化分类间隔,使得分类器拥有更强的泛化能力
B.Hinge损失函数,作用是最小化经验分类错误
C.分类间隔为1||w||1||w||,||w||代表向量的模
D.当参数C越小时,分类间隔越大,分类错误越多,趋于欠学习
2、假定某同学使用NaiveBayesian(NB)分类模型时,不小心将训练数据的两个维度搞重复了,那么关于NB的说法中正确的是:()
A.这个被重复的特征在模型中的决定作用会被加强
B.模型效果相比无重复特征的情况下精确度会降低
C.如果所有特征都被重复一遍,得到的模型预测结果相对于不重复的情况下的模型预测结果一样。
D.当两列特征高度相关时,无法用两列特征相同时所得到的结论来分析问题
3、关于Logit回归和SVM不正确的是()
A.Logit回归本质上是一种根据样本对权值进行极大似然估计的方法,而后验概率正比于先验概率和似然函数的乘积。logit仅仅是最大化似然函数,并没有最大化后验概率,更谈不上最小化后验概率。A错误
B.Logit回归的输出就是样本属于正类别的几率,可以计算出概率,正确
C.SVM的目标是找到使得训练数据尽可能分开且分类间隔最大的超平面,应该属于结构风险最小化。
D.SVM可以通过正则化系数控制模型的复杂度,避免过拟合。
4、以下哪些方法不可以直接来对文本分类?()
A、KmeansB、决策树C、支持向量机D、KNN
正确答案:A分类不同于聚类。
5、关于Logit回归和SVM不正确的是()
A.Logit回归本质上是一种根据样本对权值进行极大似然估计的方法,而后验概率正比于先验概率和似然函数的乘积。logit仅仅是最大化似然函数,并没有最大化后验概率,更谈不上最小化后验概率。A错误
B.Logit回归的输出就是样本属于正类别的几率,可以计算出概率,正确
C.SVM的目标是找到使得训练数据尽可能分开且分类间隔最大的超平面,应该属于结构风险最小化。
D.SVM可以通过正则化系数控制模型的复杂度,避免过拟合。
6、下列不是SVM核函数的是()
A.多项式核函数
B.logistic核函数
C.径向基核函数
D.Sigmoid核函数
7、模型的高bias是什么意思,我们如何降低它?机器学习ML基础易()
A.在特征空间中减少特征
B.在特征空间中增加特征
C.增加数据点
D.B和C
8、当你使用Boosting提升算法时,你会考虑弱学习器,以下哪项是使用弱学习器的主要原因?()
A.防止过拟合
B.防止欠拟合
C.防止过拟合和防止欠拟合
D.都不对
9、梯度提升中,利用学习率来获得最优输出是非常重要的,在选择学习速率时, 下列描述正确的是:()
A.学习率越大越好
B.学习率越小越好
C.学习率应该小一点但是不能太小
D.学习率不能太大也不能太小,根据情况而定
10、下列哪个算法不是集成学习算法的例子:()
A.RandomForest
B.AdaBoost
C.GBDT
D.Xgboost
E.DecisionTree
二、判断题(本大题共10小题,每题1分,共10分)
1、错误率(ErrorRate)是分类错误的样本数占样本总数的比例。()
2、决策树算法可以用于小数据集。()
3、支持向量是SVM的训练结果,在SVM分类决策中起决定作用的是支持向量。()
4、SVM在小样本训练集上能够得到比其它算法好很多的结果。()
5、最大似然估计的目的就是:利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值。()
6、决策树只能处理数据型属性。()
7、逻辑回归计算速度快。()
8、集成学习(ensemble
文档评论(0)