hadop安装笔记.doc

  1. 1、本文档共53页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
hadoop安装笔记 Hadoop安装和基本功能测试(linux,伪分布式配置) 参考官方文档和网上经验,终于完成hadoop单节点的搭建和测试,等待有集群环境再进一步练手。 一、安装JDK(要求1.6以上版本) 1.下载JDK,成功后上传至服务器任意目录 以下是JDK1.7的官方下载地址: /technetwork/java/javase/downloads/java-se-jdk-7-download-432154.html 2. 在当前目录输入 sh jdk-6u17-linux-i586-rpm.bin (如果下载的是rpm包,则:#chmod 755 jdk-7-linux-x64.rpm =#rpm -ivh jdk-7-linux-x64.rpm 直接安装至/usr/java/下,jdk1.7.0,不需要下面第三步) 3.看到 安装程序在询问您是否尊守许可协议页面 ,回车,空格都可以,看完协议 出现一行字:Do you aggree to the above license terms? [yes or no] 安装程序在问您是否愿意遵守刚才看过的许可协议。当然要同意了,输入y 或 yes 回车。 4.在命令行输入: vi /etc/profile 在里面添加如下内容 export JAVA_HOME=/usr/java/jdk1.7.0 export JAVA_BIN=/usr/java/jdk1.7.0/bin export PATH=$PATH:$JAVA_HOME/bin export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export JAVA_HOME JAVA_BIN PATH CLASSPATH 5.进入 /usr/bin/目录(建快捷方式。。) cd /usr/bin ln -s -f /usr/java/jdk1.7.0/jre/bin/java ln -s -f /usr/java/jdk1.7.0/bin/javac 6.注销命令:su,或source /etc/profile使生效 7. 在命令行输入 java -version 屏幕输出: ava version 1.7.0 Java(TM) SE Runtime Environment (build 1.7.0-b147) Java HotSpot(TM) 64-Bit Server VM (build 21.0-b17, mixed mode) 8. 安装JDK1.7完毕. 二、安装Hadoop 1.解压 tar -xzf hadoop-0.21.0.tar.gz 或 tar -zvxf hadoop-0.21.0.tar.gz -C 目标目录 # find / -name hadoop* /root/hadoop/hadoop-0.21.0 2.设置环境变量 export JAVA_HOME=/usr/java/jdk1.7.0 export HADOOP_HOME=/root/hadoop/hadoop-0.21.0 export PATH=$PATH:$HADOOP_HOME/bin 将以上三项写入~/.bash_profile中(或者/etc/profile中,source /etc/profile使生效) export --查看是否正确设置 3.验证安装 hadoop version 输出如下: Hadoop 0.21.0 Subversion /repos/asf/hadoop/common/branches/branch-0.20 -r 911707 Compiled by chrisdo on Fri Feb 19 08:07:34 UTC 2010 三、Hadoop Configuration Each component in Hadoop is configured using an XML file. Core properties go in core-site.xml, HDFS properties go in hdfs-site.xml, and MapReduce properties go in mapred-site.xml. These files are all locate

文档评论(0)

cj80011 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档