Hadoop中,Mapper和Reducer究竟背着我们做了什么?

在这篇文章中,我们会探究,Mapper和Reducer的一些不为人知的秘密。

为什么说不为人知呢?毕竟Hadoop是开源的,你可以阅读源码获取一切你想要的信息。你要是这样做,我无法反驳,因为这确实是最权威的方式。

在阅读《Hadoop: The Definitive Guide 4th Edition》时,我们都见过这么一副图片,它简单的解释了Mapper和Reducer究竟是如何沟通的,究竟做了些什么:

尽管这幅图片确实非常正确,但是,很遗憾的是,它并不是非常详细。

至少在我阅读这本书的时候,当时看到这幅图片,只能大致了解一下过程,而对一些细节并不是非常清楚。只有在后来搞明白了,再回来看这幅图片,才觉得确实非常正确。

所以,在这篇文章中,我们会用具体的例子,来一步步地解析这个过程。

但是,有一点需要各位注意的是,我只是用例子一步步地验证了这个过程,而并不是阅读源码来得出了这个过程。尽管实践是检验真理的唯一标准,但是在并不清楚真理是什么而靠实践得到的结果来总结真理的情况下,并不是那么严格,可能会有一些偏差。

所以,各位要做好一个心理准备,就是这篇文章中的内容,可能有错误,各位要有一个质疑的思想。

最近我也是打算阅读Hadoop的源码的,到时也会通过源码来验证这个过程是否正确。

那我们开始吧。

总体轮廓

尽管上面我们已经给了一副图片,但是我还是总结了一副我认为更加直观的图片,呈现给大家。

下面我们就会一一介绍为何他们他们是这个顺序。

问题

我们会用两个问题来阐述,如果搞懂这两个问题的处理过程,这个过程也就懂了。

问题一:单词计数器。统计有相同首字母的单词中,全部的单词的个数,以及不重复的单词的个数。比如,有(a, aa, aa, bb, ba),那么输出应该是(a, 3, 2), (b, 2, 2)。其中每个元组中的第二列为全部单词的数量,第三列为不重复单词的数量。

问题二:单词计数器。跟上面的问题大体相同,只是现在是统计有相同尾字母的单词中,全部的单词的个数,以及不重复的单词的个数。还是上面的那个例子,现在输出应该是(a, 4, 3), (b, 1, 1)

过程

问题一

我们先来解决第一个问题。

很显然,我们要是把单词按照首字母分组,那么就跟传统的单词计数器类似了。

所以,我们写一个Partitioner,将单词们按照首字母分区,保证首字母相同的单词会被分到同一个Reducer中。

Partitioner的实现跟HashPartitioner的实现类似,如下所示:

很简单对吧。

然后我们的Reducer端处理过程如下:

你可能很奇怪,为什么我们明明可以用HashSet来统计不重复单词,而偏偏要采用这种形式。

因为如果采用HashSet,就不会理解它排序的过程。

我们可以看到,我们在Reducer端,就是判断一下是否前一个分区已经处理完毕,如果已经处理完,那么就将结果写入到输出中。最后在cleanup()函数中,再写一遍,防止最后一个分区的结果被漏掉。

那么我们为什么可以这样处理呢?

因为我们的mapper的输出如下:
(a, 1), (aa, 1), (aa, 1), (bb, 1), (ba, 1)

然后经过Partitioner之后,产生了这么两个Partition:

  • Partition 1: (a, 1), (aa, 1), (aa, 1)
  • Partition 2: (bb, 1), (ba, 1)

然后分别两个Reducer来处理他们。当然,如果你强制只有一个Reducer,那么它们还是会被同一个Reducer处理。所以才有了我们在Reducer中判断上一个Partition是否处理完毕的逻辑。

数据在Reducer端会先进行一个排序,那么它是如何进行排序的呢?

默认情况下,是按照Key以及其类型进行排序。这里我们的Key的类型为Text,所以会将这个Reducer接收到的数据按照Text类型的Comparator进行排序。

我们这里假设仅有一个Reducer。

由于TextComparator会将输入排序成(a, 1), (aa, 1), (aa, 1), (ba, 1), (bb, 1)这种顺序,所以上面的代码没有什么问题。

而你需要注意的是,如果你用的是自定义的类型,或者自定义的Comparator,那么经过排序后,可能是乱序的,可能以a开头的单词和以b开头的单词就是乱序的了。具体的例子,我们会在下一个问题中介绍到。

然后,Reducer端会进行merge操作,会将(a, 1), (aa, 1), (aa, 1), (ba, 1), (bb, 1)merge为((a, 1), (aa, (1, 1)), (ba, 1), (bb, 1))

这样看,我们的Reducer是正确的。

但是这里同样有一个坑。

你怎么知道它是如何进行merge的?

这个问题,我们也会在问题二中介绍。

现在你只需要清楚,它也是按照Text进行merge的就好了。

Ok。那结果自然是正确的。

问题二

问题二看起来好像跟问题一类似?

对的。

跟问题一的区别是,我们需要对尾字母进行分区?

Yes。

所以其实有一个很简单的解决这个问题的方式,即把尾字母提到前面去,成为首字母,然后这个问题就跟问题一一样了,类似于动态规划。对吧?

但是这里我们不采用这种方法。因为这种方法对我们理解在问题一中提到的,Reducer端如何进行排序,如何进行merge并没有帮助。

我们采用另一种方法。

还是对尾字母进行排序。

然后我们的Partitioner如下:

Reducer如下:

你会发现,当你的Reducer的数量大于或者等于你的Partition的数量时,everything works well。但是一旦你只有一个Reducer,就出现问题了。

为什么呢?

我们上面提到过,Reducer端会将收到的数据先按照Key以及Key的对应的类型的Comparator进行排序。

假设它收到了这么两个Partition的数据:

  • Partition 1: (aa, 1), (ba, 1),
  • Partition 2: (bb, 1), (ab, 1)

我们希望它如何排序?

(aa, 1), (ba, 1), (ab, 1), (bb, 1)

反正就是相同尾字母的单词都是相邻的。

而实际上,它会按照TextComparator进行排序,那么排序的结果是什么呢?

(aa, 1), (ab, 1), (ba, 1), (bb, 1)

那结果自然是不正确。

为什么你的Reducer的数量大于或者等于你的Partition的数量时,Everything works well呢?我想你应该已经有答案了。

好,找到问题所在了。那我们自然就想到解决方案,我们自己定义一个排序函数不就好了?

Yes.

所以我们自定义了一个数据类型,以及一个对应的Comparator。其实我这里写的有些麻烦了,不用自定义数据类型的。各位自己写的时候要注意。

我们可以看到,在SuffixCompareTextcompare(SuffixCompareText o)中,会先根据尾字母进行排序,如果尾字母相同,则根据剩下的字符串进行排序。

这样我们不仅能保证具有相同尾字母的单词是连续的,还能保证具有相同尾字母且相同的单词也是连续的。

为什么需要这种保证呢?

因为merge。

现在是时候介绍一下merge的过程了。

  • 首先查找你是否通过Job.setGroupComparatorClass(YourComparatorClass)方法指定了merge的方法,如果有,则根据这个方法,对输入的相邻的数据进行比较,如果相同,则合并。注意,是相邻的数据。比如,如果输入数据是(aa, 1), (aa, 1), (ab, 1),则会被合并为(aa, (1, 1)), (ab, 1)。而如果输入数据是(aa, 1), (ab, 1), (aa, 1),则并不会进行合并,结果还是(aa, 1), (ab, 1), (aa, 1)
  • 如果你没有指定这个方法,那么就查看你是否通过Job.setSortComparatorClass(SortComparatorClass)指定了对数据排序的方法,如果指定了的话,那么会根据这个方法,对输入的相邻的数据进行比较,如果相同,则合并。所以,你可以看到,如果上面的SuffixCompareTextcompare中不注明当尾字母相同时,对剩下的字符串进行比较。那么,(ab, 1), (cb, 1), (bb, 1)会被合并为(ab, (1, 1, 1))。因为在compare()方法中,它们比较的结果为0,即相同。这样我们就无法统计不重复单词的数量了。
  • 如果你上面的两个方法都没有指定,那么就根据你的Reducer的input的Key进行合并。也是根据Key的Comparator

其实不管怎么说,由于merge时,是对相邻的数据进行对比的,所以你一定需要让Reducer拿到的数据是有序的。

这里似乎GroupComparator没有什么用,因为我们的输入的顺序已经是有序的了。但是,理解它的过程,也是有一些好处的。比如,万一以后你不仅仅只是想按照相同的key进行merge呢?

总结

在上文中,我们已经解密了mapper到reducer的过程。理解这些对你以后会大有裨益的。

源码

关于这个Demo的源码,我已经发布到Github上了,点击这里

你也可以复制这个链接到浏览器来查看。
https://github.com/AlstonWilliams/WordCountForHadoop

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,839评论 6 482
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,543评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 153,116评论 0 344
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,371评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,384评论 5 374
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,111评论 1 285
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,416评论 3 400
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,053评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,558评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,007评论 2 325
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,117评论 1 334
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,756评论 4 324
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,324评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,315评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,539评论 1 262
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,578评论 2 355
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,877评论 2 345