hadoop官方文档0.18.docx

  1. 1、本文档共13页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
hadoop官方文档0.18

Hadoop文档目录下面的文档是一些概念介绍和操作教程,可帮助你开始使用Hadoop。如果遇到了问题,你可以向邮件列表求助或者浏览一下存档邮件。Hadoop快速入门Hadoop集群搭建Hadoop分布式文件系统Hadoop Map-Reduce教程Hadoop本地库API参考维基常见问题Hadoop快速入门目的先决条件支持平台所需软件安装软件下载运行Hadoop集群的准备工作单机模式的操作方法伪分布式模式的操作方法配置免密码ssh设置执行完全分布式模式的操作方法目的这篇文档的目的是帮助你快速完成单机上的Hadoop安装与使用以便你对Hadoop分布式文件系统(HDFS)和Map-Reduce框架有所体会,比如在HDFS上运行示例程序或简单作业等。先决条件支持平台GNU/Linux是产品开发和运行的平台。Hadoop已在有2000个节点的GNU/Linux主机组成的集群系统上得到验证。Win32平台是作为开发平台支持的。由于分布式操作尚未在Win32平台上充分测试,所以还不作为一个生产平台被支持。所需软件Linux和Windows所需软件包括:JavaTM1.5.x,必须安装,建议选择Sun公司发行的Java版本。ssh必须安装并且保证sshd一直运行,以便用Hadoop脚本管理远端Hadoop守护进程。Windows下的附加软件需求Cygwin - 提供上述软件之外的shell支持。安装软件如果你的集群尚未安装所需软件,你得首先安装它们。以Ubuntu Linux为例:$ sudo apt-get install ssh$ sudo apt-get install rsync在Windows平台上,如果安装cygwin时未安装全部所需软件,则需启动cyqwin安装管理器安装如下软件包:openssh - Net类下载为了获取Hadoop的发行版,从Apache的某个镜像服务器上下载最近的稳定发行版。运行Hadoop集群的准备工作解压所下载的Hadoop发行版。编辑conf/hadoop-env.sh文件,至少需要将JAVA_HOME设置为Java安装根路径。尝试如下命令:$ bin/hadoop将会显示hadoop脚本的使用文档。现在你可以用以下三种支持的模式中的一种启动Hadoop集群:单机模式伪分布式模式完全分布式模式单机模式的操作方法默认情况下,Hadoop被配置成以非分布式模式运行的一个独立Java进程。这对调试非常有帮助。下面的实例将已解压的conf目录拷贝作为输入,查找并显示匹配给定正则表达式的条目。输出写入到指定的output目录。$ mkdir input$ cp conf/*.xml input$ bin/hadoop jar hadoop-*-examples.jargrep input output dfs[a-z.]+ $ cat output/*伪分布式模式的操作方法Hadoop可以在单节点上以所谓的伪分布式模式运行,此时每一个Hadoop守护进程都作为一个独立的Java进程运行。配置使用如下的conf/hadoop-site.xml:configuration??property????name/name????valuelocalhost:9000/value??/property??property????namemapred.job.tracker/name????valuelocalhost:9001/value??/property??property????namedfs.replication/name????value1/value??/property/configuration免密码ssh设置现在确认能否不输入口令就用ssh登录localhost:$ sshlocalhost如果不输入口令就无法用ssh登陆localhost,执行下面的命令:$ ssh-keygen -t dsa -P -f ~/.ssh/id_dsa$ cat ~/.ssh/id_dsa.pub ~/.ssh/authorized_keys执行格式化一个新的分布式文件系统:$ bin/hadoopnamenode -format启动Hadoop守护进程:$ bin/start-all.shHadoop守护进程的日志写入到${HADOOP_LOG_DIR}目录 (默认是${HADOOP_HOME}/logs).浏览NameNode和JobTracker的网络接口,它们的地址默认为:NameNode - http://localhost:50070/JobTracker - http://localhost:50030/将输入文件拷贝到分布式文件系统:$ bin/hadoopfs -put conf input

文档评论(0)

xcs88858 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:8130065136000003

1亿VIP精品文档

相关文档