《Hadoop源代码分析完整版》.pdf

  1. 1、本文档共83页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
《Hadoop源代码分析完整版》.pdf

Hadoop 源代码分析(一) 关键字: 分布式  云计算   Google的核心竞争技术是它的计算平台。Google的大牛们用了下面5篇文章,介绍了它们的计算设施。 GoogleCluster: /archive/googlecluster.html Chubby:/papers/chubby.html GFS:/papers/gfs.html BigTable:/papers/bigtable.html MapReduce:/papers/mapreduce.html 很快,Apache上就出现了一个类似的解决方案,目前它们都属于Apache的Hadoop项目,对应的分别是: Chubby--ZooKeeper GFS--HDFS BigTable--HBase MapReduce--Hadoop 目前,基于类似思想的Open Source项目还很多,如Facebook用于用户分析的Hive。 HDFS作为一个分布式文件系统,是所有这些项目的基础。分析好HDFS,有利于了解其他系统。由于Hadoop 的HDFS和MapReduce 是同一个项目,我们就把他们放在一块,进行分析。 下图是MapReduce整个项目的顶层包图和他们的依赖关系。Hadoop包之间的依赖关系比较复杂,原因是HDFS提供了一个分布 式文件系统,该系统提供API,可以屏蔽本地文件系统和分布式文件系统,甚至象Amazon S3这样的在线存储系统。这就造成 了分布式文件系统的实现,或者是分布式文件系统的底层的实现,依赖于某些貌似高层的功能。功能的相互引用,造成了蜘蛛 网型的依赖关系。一个典型的例子就是包conf,conf用于读取系统配置,它依赖于fs,主要是读取配置文件的时候,需要使 用文件系统,而部分的文件系统的功能,在包fs中被抽象了。 Hadoop的关键部分集中于图中蓝色部分,这也是我们考察的重点。     Hadoop 源代码分析(二) 下面给出了Hadoop的包的功能分析。  Package Dependences tool 提供一些命令行工具,如 DistCp ,archive mapreduce Hadoop 的Map/Reduce 实现 filecache 提供 HDFS 文件的本地缓存,用于加快 Map/Reduce 的数据访问 速度 fs 文件系统的抽象,可以理解为支持多种文件系统实现的统一文 件访问接口 hdfs HDFS ,Hadoop 的分布式文件系统实现 ipc 一个简单的 IPC 的实现,依赖于io 提供的编解码功能  参考:/blog/86306 io 表示层。将各种数据编码/解码,方便于在网络上传输 net 封装部分网络功能,如 DNS ,socket security 用户和用户组信息 conf 系统的配置参数 metrics 系统统计数据的收集,属于网管范畴 util 工具类 record 根据 DDL (数据描述语言)自动生成他们的编解码函数,目前 可以提供 C++和 Java http 基于 Jetty 的HTTP Servlet ,用户通过浏览器可以观察文件系统 的一些状态信息和日志 log 提供 HTTP 访问日志的 HTTP Servlet Hadoop 源代码分析(三) 由于Hadoop的MapReduce和HDFS都有通信的需求,需要对通信的对象进行序列化。Hadoop并没有采用Java的序列化,而是 引入了它自己的系统。 org.apache.hadoop.io中定义了大量的可序列化对象,他们都实现了Writable接口。实现了Writable接口的一个典型例子如 下: Java 代码    1. public

文档评论(0)

qspd + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档