Hadoop面精彩试题汇总情况.doc

  1. 1、本文档共26页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
实用文档 文案大全 单选题 1.下面哪个程序负责 HDFS 数据存储。 a)NameNode b)Jobtracker c)Datanode d)secondaryNameNode e)tasktracker 答案C datanode 2. HDfS 中的 block 默认保存几份? a)3 份 b)2 份c)1 份d)不确定 答案A默认3分 3. 下列哪个程序通常与 NameNode 在一个节点启动? a)SecondaryNameNode b)DataNode c)TaskTracker d)Jobtracker 答案D 4. Hadoop 作者 a)Martin Fowler b)Kent Beck c)Doug cutting 答案C Doug cutting 5. HDFS 默认 Block Size a)32MB b)64MB c)128MB 答案:1.X版本是64M 2.X版本是128M 6.下列哪项通常是集群的最主要瓶颈 a)CPU b)网络 c)磁盘IO d)内存 答案:C磁盘 7.Doug Cutting所创立的项目的名称都受到其家人的启发,以下项目不是由他创立的项目是 A. Hadoop B. Nutch C. Lucene D. Solr 答案:D 8.配置Hadoop时,JAVA_HOME包含在哪一个配置文件中 A. hadoop-default.xml B. hadoop-env.sh C. hadoop-site.xml D. configuration.xsl 答案:B 9. Hadoop配置文件中,hadoop-site.xml显示覆盖hadoop-default.xml里的内容。在版本0.20中,hadoop-site.xml被分离成三个XML文件,不包括 A. conf-site.xml B. mapred-site.xml C. core-site.xml D. hdfs-site.xml 答案:A 10.HDFS默认的当前工作目录是/user/$USER,fs.default.name的值需要在哪个配置文件内说明 A. mapred-site.xml B. core-site.xml C. hdfs-site.xml D. 以上均不是 答案:B 11.关于Hadoop单机模式和伪分布式模式的说法,正确是 A. 两者都起守护进程,且守护进程运行在一台机器上 B. 单机模式不使用HDFS,但加载守护进程 C. 两者都不与守护进程交互,避免复杂性 D. 后者比前者增加了HDFS输入输出以及可检查内存使用情况 答案:D 12.下列关于Hadoop API的说法错误的是 A. Hadoop的文件API不是通用的,只用于HDFS文件系统 B. Configuration类的默认实例化方法是以HDFS系统的资源配置为基础的 C. FileStatus对象存储文件和目录的元数据 D. FSDataInputStream是java.io.DataInputStream的子类 答案:A 13.HDFS的NameNode负责管理文件系统的命名空间,将所有的文件和文件夹的元数据保存在一个文件系统树中,这些信息也会在硬盘上保存成以下文件: A.日志 B.命名空间镜像 C.两者都是 答案:C 14. HDFS的namenode保存了一个文件包括哪些数据块,分布在哪些数据节点上,这些信息也存储在硬盘上。 A.正确 B.错误 答案:B 知识点:在系统启动的时候从数据节点收集而成的 15.Secondary namenode就是namenode出现问题时的备用节点 A.正确 B.错误 答案:B 知识点:它和元数据节点负责不同的事情。其主要功能就是周期性将元数据节点的命名空间镜像文件和修改日志合并,以防日志文件过大。合并过后的命名空间镜像文件也在Secondary namenode保存了一份,以防namenode失败的时候,可以恢复。 16.HDFS的是基于流数据模式访问和处理超大文件的需求而开发的,默认的最基本的存储单位是64M,具有高容错、高可靠性、高可扩展性、高吞吐率等特征,适合的读写任务是 A.一次写入,少次读写 B.多次写入,少次读写 C.一次写入,多次读写 D.多次写入,多次读写 答案:C 17.HDFS无法高效存储大量小文件,想让它能处理好小文件,比较可行的改进策略不包括 A. 利用SequenceFile、MapFile、Har等方式归档小文件 B. 多Master设计 C. Block大小适当调小 D. 调大n

文档评论(0)

linlin921 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档