linux下安装hadoop.doc

  1. 1、本文档共17页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
linux下安装hadoop

一、在Ubuntu下创建Hadoop组和hadoop用户增加hadoop用户组,同时在该组里增加hadoop用户,后续在涉及到hadoop操作时,我们使用该用户。 1、创建hadoop用户组 2、创建hadoop用户 sudo adduser -ingroup hadoop hadoop 回车后会提示输入新的UNIX密码,这是新建用户hadoop的密码,输入回车即可。 如果不输入密码,回车后会重新提示输入密码,即密码不能为空。 最后确认信息是否正确,如果没问题,输入 Y,回车即可。 3、为hadoop用户添加权限 输入:sudo gedit /etc/sudoers 回车,打开sudoers文件 给hadoop用户赋予和root用户同样的权限 二、用新增加的hadoop用户登录Ubuntu系统 三、安装ssh sudo apt-get install openssh-server 安装完成后,启动服务 sudo /etc/init.d/ssh start 查看服务是否正确启动:ps -e | grep ssh 设置免密码登录,生成私钥和公钥 ssh-keygen -t rsa -P 此时会在/home/hadoop/.ssh下生成两个文件:id_rsa和id_rsa.pub,前者为私钥,后者为公钥。 下面我们将公钥追加到authorized_keys中,它用户保存所有允许以当前用户身份登录到ssh客户端用户的公钥内容。 cat ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys 登录ssh ssh localhost 退出 exit 四、安装Java环境 sudo apt-get install openjdk-7-jdk 查看安装结果,输入命令:java -version,结果如下表示安装成功。 在Ubuntu14.04下安装Hadoop2.4.0 (单机模式)基础上配置??/Linux/2015-01/112370.htm一、配置core-site.xml /usr/local/hadoop/etc/hadoop/core-site.xml 包含了hadoop启动时的配置信息。 编辑器中打开此文件 sudo gedit /usr/local/hadoop/etc/hadoop/core-site.xml 在该文件的之间增加如下内容: hdfs://localhost:9000 保存、关闭编辑窗口。 最终修改后的文件内容如下: 二、配置yarn-site.xml/usr/local/hadoop/etc/hadoop/yarn-site.xml包含了MapReduce启动时的配置信息。 编辑器中打开此文件 sudo gedit yarn-site.xml 在该文件的之间增加如下内容: yarn.nodemanager.aux-services mapreduce_shuffle yarn.nodemanager.aux-services.mapreduce.shuffle.class org.apache.hadoop.mapred.ShuffleHandler 保存、关闭编辑窗口 最终修改后的文件内容如下 三、创建和配置mapred-site.xml默认情况下,/usr/local/hadoop/etc/hadoop/文件夹下有mapred.xml.template文件,我们要复制该文件,并命名为mapred.xml,该文件用于指定MapReduce使用的框架。 复制并重命名 cp mapred-site.xml.template mapred-site.xml 编辑器打开此新建文件 sudo gedit mapred-site.xml 在该文件的之间增加如下内容: yarn 保存、关闭编辑窗口 最终修改后的文件内容如下 四、配置hdfs-site.xml/usr/local/hadoop/etc/hadoop/hdfs-site.xml用来配置集群中每台主机都可用,指定主机上作为namenode和datanode的目录。 创建文件夹,如下图所示 你也可以在别的路径下创建上图的文件夹,名称也可以与上图不同,但是需要和hdfs-site.xml中的配置一致。 编辑器打开hdfs-site.xml 在该文件的之间增加如下内容: dfs.replication 1 .dir file:/usr/local/hadoop/hdfs/name dfs.datanode.data.dir file:/usr/local/hadoop/hdfs/data 保存、关闭编辑窗口 最终修改后的文件内容如下: 五、格式化hdfshdfs namenode -format 只需要执行一次即可,如果在hadoop已

文档评论(0)

xcs88858 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:8130065136000003

1亿VIP精品文档

相关文档