实验4 大数据去重.docxVIP

  1. 1、本文档共8页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
实验4 大数据去重 1.实验目的 通过Hadoop数据去重实验,学生可以掌握准备数据、伪分布式文件系统配置方法,以及在集成开发环境Eclipse中实现Hadoop数据去重方法。 2.实验要求 了解基于Hadoop处理平台的大数据去重过程,理解其主要功能,并能够在Hadoop环境下独立完成。 (1)制订实验计划。 (2)准备数据。 (3)伪分布式文件系统配置。 (4)在集成开发环境Eclipse中实现Hadoop数据去重。 3.实验内容 (1)制订实验计划。 (2)进入“/usr/local/hadoop”目录。 (3)准备数据。 (4)修改“/usr/local/hadoop/etc/hadoop/”目录下的Hadoop配置文件。 (5)NameNode格式化。 (6)在集成开发环境Eclipse中实现Hadoop数据去重。 4.实验总结 通过本实验,使学生了解Hadoop数据去重的特点和过程、理解MapReduce程序的执行过程,掌握NameNode的格式化方法、Hadoop的配置文件的修改和Eclipse开发环境下实现Hadoop数据去重的方法。 5.思考拓展 (1)为什么需要NameNode格式化?说明NameNode格式化方法。 (2)为什么需要数据去重?说明Hadoop数据去重的主要优势。 (3)结合MapReduce程序执行过程,说明Hadoop数据去重是离线处理还是在线处理。 (4)说明在集成开发环境Eclipse中实现Hadoop数据去重的主要过程。 答:数据去重方法如下 【Hadoop学习项目】--- 数据去重 0. 项目结构 数据处理过程图 1. DupDriver 2. DupMapper 3. DupReducer 方法2: ?4、设置程序输入参数,myeclipse设置。运行,得到结果: 14/06/15 22:01:32 INFO mapred.JobClient:? map 100% reduce 100% 14/06/15 22:01:32 INFO mapred.JobClient: Job complete: job_local_0001 14/06/15 22:01:32 INFO mapred.JobClient: Counters: 19 14/06/15 22:01:32 INFO mapred.JobClient:?? File Output Format Counters? 14/06/15 22:01:32 INFO mapred.JobClient:???? Bytes Written=9 14/06/15 22:01:32 INFO mapred.JobClient:?? FileSystemCounters 14/06/15 22:01:32 INFO mapred.JobClient:???? FILE_BYTES_READ=81479 14/06/15 22:01:32 INFO mapred.JobClient:???? HDFS_BYTES_READ=43 14/06/15 22:01:32 INFO mapred.JobClient:???? FILE_BYTES_WRITTEN=279482 14/06/15 22:01:32 INFO mapred.JobClient:???? HDFS_BYTES_WRITTEN=9 14/06/15 22:01:32 INFO mapred.JobClient:?? File Input Format Counters? 14/06/15 22:01:32 INFO mapred.JobClient:???? Bytes Read=17 14/06/15 22:01:32 INFO mapred.JobClient:?? Map-Reduce Framework 14/06/15 22:01:32 INFO mapred.JobClient:???? Map output materialized bytes=31 14/06/15 22:01:32 INFO mapred.JobClient:???? Map input records=9 14/06/15 22:01:32 INFO mapred.JobClient:???? Reduce shuffle bytes=0 14/06/15 22:01:32 INFO mapred.JobClient:???? Spilled Records=10 14/06/15 22:01:32 INFO mapred.JobClient:???? Map output bytes=17 14/06/15 22:01:32 INFO mapred.JobClient:???

文档评论(0)

我爱学习 + 关注
实名认证
文档贡献者

学习使人进步

1亿VIP精品文档

相关文档