- 1、本文档共16页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
安装HADOOP集群服务器
规划
功能
HOSTNAME
IP
说明
Master
HDM01
Namenode 兼datanode
Slave
HDS02
Datanode
Slave
HDS03
Datanode
Client
HDC04
HADOOP客户端(HDFS/HIVE)
环境
系统环境
安装 centOS6.2 = 软件工作站(software Development Workstation)
Hadoop安装
安装和配置SSH 、RSYNC( Root用户)
安装 SSH和rsync 一般系统自带了;
创建Hadoop运行用户( Root用户)
一般我们不会经常使用root用户运行hadoop,所以要创建一个平常运行和管理Hadoop的用户;
创建hadoop用户和用户组
useradd hadoop
PS:master和slave节点机都要创建相同的用户和用户组,即在所有集群服务器上都要建hadoop用户和用户组。
关闭防火墙( Root用户)
在启动前关闭集群中所有机器的防火墙,不然会出现datanode开后又自动关闭。所以对集群所有服务器关闭防火墙:chkconfig iptables off
查看防火墙状态:service iptables status
永久关闭防火墙:chkconfig iptables off
查看防火墙状态:chkconfig --list iptables
配置机器名和网络( Root用户)
配置HOSTNAME
vi /etc/sysconfig/network,修改:HOSTNAME=hmaster
其他节点依次改为slave1,slave2…….不过必须和上面一致
验证; 输入命令 hostname
配置网络IP
cd /etc/sysconfig/network-scripts
vi ifcfg-eth0(因为硬件不同,其中的“eth0”可能是其他名称)
配置IP和HOSTNAME映射关系
vi /etc/hosts
[root@NOAS ~]# more /etc/hosts
# localhost localhost.localdomain localhost4 #localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
HDM01
HDS02
HDS03
HDC04
配置非root用户免验证登录SSH( hadoop用户)
提示:Linux配置ssh是通过欺骗登录用户名的。所以上面创建用户的时候,我们都把3个节点的username都设置成hadoop,主要是用户名必须一致
在hadoop用户的home目录,即 cd /home/hadoop 下执行命令
用hadoop用户登录(第 一/二/三步分别在每一个节点上都要执行)
第一步:ssh-keygen -t rsa -P -f ~/.ssh/id_rsa
意思是读取 id_dsa文件默认 全部是yes安装
和root用户一样,会发现多处2个文件,一个是公开密匙,一个是访问用户名字信息的
第二步:cat ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
是把暴露出来的公共密匙按顺序导入authorized_keys中保存
第三步:chmod 700 ~/.ssh
chmod 600 ~/.ssh/authorized_keys
ssh机制很严谨,对文件的权限要求非常严格
我们需要把.ssh文件夹的权限改为700 ,默认是777
authorized_keys的权限这里是对的,600
第四步:在主节点上执行下列命令
ssh HDS02 cat ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
ssh HDS03 cat ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
scp authorized_keys hadoop@HDS02:/home/hadoop/.ssh/
scp authorized_keys HYPERLINK mailto:hadoop@GZHDS03:/home/hadoop/.ssh hadoop@HDS03:/home/hadoop/.ssh/
最终authorized_keys文件要有各个集群服务器的信息
第五步:验证
文档评论(0)