win下使用eclipse连接hadoop2.6.3讲解.docx

  1. 1、本文档共18页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
Win7下使用eclipse连接Hadoop2.6.3 环境所需要的软件和安装 1 安装jdk1.8 配置环境变量后测试  HYPERLINK /technetwork/java/javase/downloads/jdk8-downloads-2133151.html /technetwork/java/javase/downloads/jdk8-downloads-2133151.html 2 安装eclipse  HYPERLINK /eclipse/technology/epp/downloads/release/mars/1/eclipse-jee-mars-1-win32-x86_64.zip /eclipse/technology/epp/downloads/release/mars/1/eclipse-jee-mars-1-win32-x86_64.zip 3 安装ant1.9.6 配置环境变量后测试  HYPERLINK /apache//ant/binaries/apache-ant-1.9.6-bin.zip /apache//ant/binaries/apache-ant-1.9.6-bin.zip 4 下载插件源码  HYPERLINK /winghc/hadoop2x-eclipse-plugin/tree/v2.6.0 /winghc/hadoop2x-eclipse-plugin/tree/v2.6.0 5 下载并解压hadoop2.6.3  HYPERLINK /releases.html /releases.html 编译插件 1 修改hadoop2x-eclipse-plugin-2.6.0\ivy\perties 2 在win7的命令行模式(win+r中输入cmd)下编译插件 C:\jtools\hadoop2x-eclipse-plugin-2.6.0\src\contrib\eclipse-plugin在此目录下执行 ant jar -Dversion=2.6.3 -Declipse.home= C:\jtools\eclipse -Dhadoop.home= C:\jtools\hadoop-2.6.3命令 -Dversion=2.6.3 编译的版本号 -Declipse.home= C:\jtools\eclipse eclipse的安装目录 -Dhadoop.home= C:\jtools\hadoop-2.6.3 hadoop的安装目录 告诉你编译好的jar文件存放位置 将hadoop-eclipse-plugin-2.6.3文件复制到eclipse的plugins文件夹中 以上步骤做完就成功安装好插件了 配置Eclipse 1 打开eclipse修改hadoop的目录 显示hadoop的窗口 窗口显示后就可以新建hdfs的连接了 窗口内右键选择New Hadoop location… 根据hadoop的配置文件修改其内容 窗口里就会显示你配置好的连接 设置好后左侧能看到hdfs内的内容 测试创建文件夹 输入ddd后点OK 刷新后发现什么都没有 测试上传文件 提示报错 好像说我没有权限 通过网上和同学们沟通得到的处理方式 修hdfs-site.xml文件.在其中增加一个属性 property namedfs.permissions/name valuefalse/value /property 然后重启hdfs服务 在下载一个hadoop.dll 2.6.0的压缩文件  HYPERLINK /s/1Quj1c /s/1Quj1c 共享的百度盘地址 解压里面的文件到hadoop的bin目录下 将hadoop.dll文件拷贝一份到System32下 做完以上步骤之后进行测试 通过测试上传2010年的数据上去在刷新后就成功了 又出现了一个新问题 展开这个的时候报错 通过查询是hdfs里面没有输出和输入目录 bin/hdfs dfs -mkdir –p /user/grid/input bin/hdfs dfs -mkdir –p /user/grid/output 创建好默认名字的输入和输出文件就行了 运行程序 下载了2001年里最后一个154M的包 解压并输出成sample.txt文件,在上传至hadoop集群中 接下来就利用程序跑这个job了 结果运行又出错了 通过网上找到处理方式,是把源代码中的NativeIO这个java文件中修改成不检查 这下跑完后得出的最小 跑完得出的最大 运行Exercise_1.java程序 输出到outtest2

文档评论(0)

shuwkb + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档