1. 1、本文档共68页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
hadoop培训

Agenda; CDH5.3.3安装实战和使用;Linux系统优化; (4) linux下修改进程打开文件数限制 linux 默认的进程打开文件上限是1024个,可以通过ulimit -n查看。很多系统上限可以通过修改/etc/security/limits.conf文件改变,这个文件有详细的注释,对如何修改做了说明。如果希望 把所有用户的进程打开文件上限改为65536,可以加入下面两行 * soft nofile 8192 * hard nofile 8192 ;(5) 关闭Swap分区 Swap空间的作用可简单描述为:当系统的物理内存不够用的时候,就需要将物理内存中的一部分空间释放出来,以供当前运行的程序使用。那些被释放的空间可能来自一些很长时间没有什么操作的程序,这些被释放的空间被临时保存到Swap空间中,等到那些程序要运行时,再从Swap中恢复保存的数据到内存中。这样,系统总是在物理内存不够时,才进行Swap交换。 (6) Ntp服务,时间同步 ;Hadoop通用参数调整;HDFS相关配置;map/reduce 相关配置;(4) io.sort.mb Map task的输出结果和元数据在内存中所占的buffer总大小。默认为100M,对于大集群,可设为200M。当buffer达到一定阈值,会启动一个后台线程来对buffer的内容进行排序,然后写入本地磁盘(一个spill文件)。 (5) io.sort.spill.percent 这个值就是上述buffer的阈值,默认是0.8,即80%,当buffer中的数据达到这个阈值,后台线程会起来对buffer中已有的数据进行排序,然后写入磁盘。 (6) io.sort.record Io.sort.mb中分配给元数据的内存百分比,默认是0.05。这个需要根据应用程序进行调整。 (7) press.map.output/ Mpress 中间结果和最终结果是否要进行压缩,如果是,指定压缩方式(Mpress.map.output.codec/ Mpress.codec)。推荐使用LZO压缩。Intel内部测试表明,相比未压缩,使用LZO压缩的TeraSort作业运行时间减少60%,且明显快于Zlib压缩。 3.2.6 reduce task相关配置 (8) Mapred.reduce.parallel Reduce shuffle阶段copier线程数。默认是5,对于较大集群,可调整为16~25。 ;设置好内存至关重要;Hadoop1.0的局限-MapReduce;Hadoop2.0 新特性: YARN-架构及组件;Hadoop2.0 新特性: YARN-1.0资源调度;Hadoop2.0 新特性: YARN的资源调度模型;Hadoop2.0 新特性: YARN的资源调度特点;YARN的资源调度控制;Yarn资源分配案例;YARN中内存资源的调度和隔离;YARN中CPU资源的调度和隔离;Hadoop2.0 新特性: YARN上运行的软件;NoSQL的定义与特征;基本的存储引擎;NoSQL数据库介绍;Hbase;Hbase测试;Hbase架构;Hbase角色;Hbase Split;创建Hbase表,指定分区(pre-split);自动splitting; 强制split;Compaction操作;为什么要Compaction;参数配置;Compaction流程;1) Server端: HRegionServer::run forward the request to CompactionSplitThread ==CompactionSplitThread handle the request from queue ==HRegion::compactStores ==Do compaction preparations, create the compaction folder ==HStore::compaction ==Create a HFile.Writer for writing ==Create a StoreScanner for major compaction ==Create a MinorCompactionStoreScanner for minor compaction ==Scan the scanner and write to the hfile ==Complete the compaction,delete old files and move the file to store folder 2) Server检查发起 Maj

文档评论(0)

dajuhyy + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档