hadoop学习笔记资料.docx

  1. 1、本文档共19页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
一、环境(伪分布式) Centos、虚拟机、hadoop-1.0.1、jdk1.6(这两个的环境变量要设置)、myeclipse8.6 安装linux命令如下: 先授权 安装java1.6 #chmod +x jdk-6u23-linux-i586.bin 安装bin文件 ./jdk-6u23-linux-i586.bin linux 下设置JAVA 环境变量 1.cd /etc/profile.d 2.touch java.sh 3.在java.sh写入以下内容: vi java.sh #set java_environment export JAVA_HOME=/tools/jdk1.6.0_23 export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH:$HOME/bin 保存是: Esc到命令模式, 敲冒号:, 再wq!(3个字符),就保存退出了, [w是保存,q是退出,可单用,!是强制] 也可以是Shift+ZZ,保存退出的意思 4.chmod 777 java.sh --改为可执行文件 5.source java.sh --使生效 6.javac --看是否成功 Hadoop环境变量设置,但是此种方式重新启动后又将失效 [root@localhost ~]# cd tools/hadoop-1.0.1/bin [root@localhost bin]#export PATH=$PATH:/tools/hadoop-1.0.1/bin 修改配置: Configuration Use the following:? conf/core-site.xml: configuration property name/name valuehdfs://localhost:9000/value /property /configuration conf/hdfs-site.xml: configuration property namedfs.replication/name value1/value /property /configuration conf/mapred-site.xml: configuration property namemapred.job.tracker/name valuelocalhost:9001/value /property /configuration Setup passphraseless ssh Now check that you can ssh to the localhost without a passphrase: $ ssh localhost If you cannot ssh to localhost without a passphrase, execute the following commands: $ ssh-keygen -t dsa -P -f ~/.ssh/id_dsa? $ cat ~/.ssh/id_dsa.pub ~/.ssh/authorized_keys Format a new distributed-filesystem: $ bin/hadoop namenode -format Start the hadoop daemons: $ bin/start-all.sh The hadoop daemon log output is written to the?${HADOOP_LOG_DIR}?directory (defaults to?${HADOOP_HOME}/logs). Browse the web interface for the NameNode and the JobTracker; by default they are available at: NameNode?-? HYPERLINK http://localhost:50070/ http://localhost:50070/ JobTracker?-? HYPERLINK http://localhost:50030/ http://localhost:50030/ Copy the input files into the distributed filesystem: $ bin/hadoop fs -

文档评论(0)

586334000 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档