hadoop部署总结.doc

  1. 1、本文档共8页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
hadoop部署总结

采用双namenode节点,多datanode节点配置。 在新版本HDFS的配置中,所有节点的配置文件都是统一的(除ssh部分),不用单独配置NameNode和DataNode。 假设我们有三台服务器,主机名分别为fenbu01、fenbu02、fenbu03 fenbu01为namenode节点,fenbu02为datanode节点,fenbu03待用 ? 1、更改各节点hosts文件 vi /etc/hosts ???????? localhost???? localhost 172.xx.xx.10????? fenbu01?????? fenbu01 172.xx.xx.11????? fenbu02?????? fenbu02 172.xx.xx.12????? fenbu03?????? fenbu03 ? 2、创建dbrg用户 useradd -u 500 -g 500 -p 123456 -d /home/dbrg dbrg 在/home/dbrg/下创建hadoopinstall目录 mkdir /home/dbrg/hadoopinstall ? 3、解压hadoop包 下载地址 /dyn/closer.cgi/hadoop/common/ ftp hadoop到/home/dbrg/hadoopinstall gzip -d? hadoop-0.23.1.tar.gz tar -xvf hadoop-0.23.1.tar ln -s hadoop-0.23.1 hadoop mkdir /home/dbrg/hadoopinstall/hadoop-config ? 4、SSH配置 在namenode节点上对dbrg用户创建公钥(datanode节点无需操作此步骤) su dbrg $ssh-keygen -t rsa 这个命令将为fenbu01上的用户dbrg生成其密钥对,询问其保存路径时直接回车采用默认路径, 当提示要为生成的密钥输入passphrase的时候,直接回车,也就是将其设定为空密码。 $cp id_rsa.pub authorized_keys $chmod 644 authorized_keys $scp authorized_keys fenbu02:/home/dbrg/.ssh/ 目录结构应该是这样的 [dbrg@fenbu01 .ssh]$ ls -la drwx------ 2 dbrg dbrg 4096 04-01 15:30 . drwx------ 5 dbrg dbrg 4096 04-01 15:37 .. -rw-r--r-- 1 dbrg dbrg? 394 04-01 15:32 authorized_keys -rw------- 1 dbrg dbrg 1675 04-01 15:24 id_rsa -rw-r--r-- 1 dbrg dbrg? 394 04-01 15:24 id_rsa.pub -rw-r--r-- 1 dbrg dbrg 1192 04-01 15:34 known_hosts ? root权限下修改文件/etc/ssh/sshd_config #去除密码认证 PubkeyAuthentication yes PasswordAuthentication? no AuthorizedKeyFile?? .ssh/authorized_keys service sshd restart 这时候namenode ssh无法直接登陆了,换用xmanager ? 然后到datanode节点操作 scp到datanode节点的文件记得赋予权限 保证authorized_keys只对其所有者有读写权限,其他人不允许有写的权限,否则SSH是不会工作的。 $chmod 644 authorized_keys ? 5、配置集群环境 在vi /home/dbrg/.bashrc文件内添加 #hadoop 0.23 required settings export HADOOP_DEV_HOME=/home/dbrg/hadoopinstall/hadoop #设置你hadoop的路径,需要修改一下 export HADOOP_MAPRED_HOME=${HADOOP_DEV_HOME} export HADOOP_COMMON_HOME=${HADOOP_DEV_HOME} export HADOOP_HDFS_HOME=${HADOOP_DEV_HOME} export YARN_HOME=${HADOOP_DEV_HOME} export HADOOP_CONF_DIR=/opt/dbrg/hdfs/conf #conf目录也可以按照Hadoop-

文档评论(0)

xcs88858 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:8130065136000003

1亿VIP精品文档

相关文档