在三台虚拟机上部署多节点Hadoop.docVIP

  1. 1、本文档共14页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
在三台虚拟机上部署多节点Hadoop.doc

cd /etc/network vi interfaces 进入vi后,编辑 auto eth0 iface eth0 inet static address IP地址 netmask 掩码 gateway 网关 共有台机器,均使用的系统,Java使用的是IP配置如下:hadoop1:(NameNode) hadoop2:31(DataNode) hadoop3:33 (DataNode) 这里有一点需要强调的就是,务必要确保每台机器的主机名和IP地址之间能正确解析。一个很简单的测试办法就是ping一下主机名,比如在hadoop1上ping hadoop,如果能ping通就OK!若不能正确解析,可以修改/etc/hosts文件,如果该台机器作Namenode用,则需要在hosts文件中加上集群中所有机器的IP地址及其对应的主机名;如果该台机器作Datanode用,则只需要在hosts文件中加上本机IP地址和Namenode机器的IP地址。以本文为例,hadoop1(NameNode)中的/etc/hosts文件看起来应该是这样的?????????hadoop1????????localhost 32??????hadoop1????????hadoop1 31?????hadoop2????????hadoop2 33?????hadoop3????????hadoop3 hadoop2(DataNode)中的/etc/hosts文件看起来就应该是这样的:?????????hadoop2????????localhost 32??????hadoop1????????hadoop1 31?????hadoop2????????hadoop2 hadoop3(DataNode)中的/etc/hosts文件看起来就应该是这样的:?????????hadoop3????????localhost 32??????hadoop1????????hadoop1 33?????hadoop3????????hadoop3 对于Hadoop来说,在HDFS看来,节点分为Namenode和Datanode,其中Namenode只有一个,Datanode可以是很多;在MapReduce看来,节点又分为Jobtracker和Tasktracker,其中Jobtracker只有一个,Tasktracker可以是很多。我是将namenode和jobtracker部署在adoop1上,adoop2, hadoop3作为datanode和tasktracker。当然你也可以将namenode,datanode,jobtracker,tasktracker全部部署在一台机器上 目录结构 由于Hadoop要求所有机器上hadoop的部署目录结构要相同,并且都有一个相同的用户名的帐户。 三台机器上是这样的:都有一个的帐户,主目录是/home/[hadoop@ hadoop1:~]$tar -zxvf hadoop-0.21.0.tar.gz Hadoop部署目录结构如下:/home//hadoop0.21.0,所有的hadoop版本放在这个目录中。将hadoop0..0压缩包解压至hadoop0..0中,为了方便以后升级,建议建立一个链接指向要使用的hadoop版本,不妨设为hadoop[hadoop@ hadoop1:~]$ln -s hadoop-0.21.0 hadoop 这样一来,所有的配置文件都在/hadoop/conf/目录中,所有执行程序都在/hadoop/bin目录中。但是由于上述目录中hadoop的配置文件和hadoop的安装目录是放在一起的,这样一旦日后升级hadoop版本的时候所有的配置文件都会被覆盖,因此建议将配置文件与安装目录分离,一种比较好的方法就是建立一个存放配置文件的目录,hadoop-config,然后将/hadoop/conf/目录中的mastersslaves,hadoopenv.sh三个文件拷贝到hadoop-config目录中,并指定环境变量$HADOOP_CONF_DIR指向该目录。环境变量在/home//.bashrc和/etc/profile中设定。HADOOP_CONF_DIR=/home/hadoop/hadoop/hadoop-config export HADOOP_CONF_DIR 即: cd /home/hadoop/hadoop mkdir hadoop-config cp conf/masters hadoop-config/ cp conf/slaves hadoop-config/ cp conf/hadoop-env.sh hadoop-config/ sudo vi /etc/p

您可能关注的文档

文档评论(0)

整理王 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档