MapReduce 初级案例——数据去重
作者:虾皮
“ 数据去重”主要是为了掌握和利用并行化思想来对数据进行有意义的筛选。 统计大数据集上的数据种类个数、 从网站日志中计算访问地等这些看似庞杂的任务都会涉及数据去重。下面就进入这个实例的 MapReduce 程序设计。
1 实例描述
对数据文件中的数据进行去重。数据文件中的每行都是一个数据。
样例输入如下所示:
1) file1:
2) file2:
样例输出如下所示:
2 设计思路
数据去重的最终目标是让原始数据中出现次数超过一次的数据在输出文件中只出现一次。我们自然而然会想到将同一个数据的所有记录都交给一台 reduce 机器,无论这个数据出现多少次,只要在最终结果中输出一次就可以了。具体就是 reduce 的输入应该以数据作为 key,而对 value-list 则没有要求。当 reduce 接收到一个<key, value-list=””>时就直接将 key复制到输出的 key 中,并将 value 设置成空值。
在 MapReduce 流程中, map 的输出<key, value=””>经过 shuffle 过程聚集成<key, value-list=””>后会交给 reduce。所以从设计好的 reduce 输入可以反推出 map 的输出 key 应为数据, value任意。继续反推, map 输出数据的 key 为数据,而在这个实例中每个数据代表输入文件中的一行内容,所以 map 阶段要完成的任务就是在采用 Hadoop 默认的作业输入方式之后,将value 设置为 key,并直接输出(输出中的 value 任意)。 map 中的结果经过 shuffle 过程之后交给 reduce。 reduce 阶段不会管每个 key 有多少个 value,它直接将输入的 key 复制为输出的 key,并输出就可以了(输出中的 value 被设置成空了)。
3 程序代码
程序代码如下所示:
4 代码结果
1)准备测试数据
通过 Eclipse 下面的“ DFS Locations”在“ /user/hadoop”目录下创建输入文件“ dedup_in”文件夹( 备注:“ dedup_out”不需要创建。)如图 1.4-1 所示,已经成功创建。
然后在本地建立两个 txt 文件,通过 Eclipse 上传到“ /user/hadoop/dedup_in”文件夹中,两个 txt 文件的内容如“实例描述”那两个文件一样。如图 1.4-2 所示,成功上传之后。
从 SecureCRT 远处查看“ Master.Hadoop”的也能证实我们上传的两个文件。
查看两个文件的内容如图 1.4-3 所示:
2)查看运行结果
这时我们右击 Eclipse 的“ DFS Locations”中“ /user/hadoop”文件夹进行刷新,这时会发现多出一个“ dedup_out”文件夹,且里面有 3 个文件,然后打开双其“ part-r-00000”文件,会在 Eclipse 中间把内容显示出来。如图 1.4-4 所示。
此时,你可以对比一下和我们之前预期的结果是否一致。
End.