0x01 数据倾斜发生的原理
Spark在进行Shuffle的时候,必须将各个节点上相同的key拉取到某个节点上的一个task来进行处理,比如按照key进行聚合或join等操作。此时如果某个key对应的数据量特别大的话,就会发生数据倾斜。
0x02 如何确定是数据倾斜问题(如何定位发生数据倾斜的)
数据倾斜发生时,Spark作业看起来运行得非常缓慢,甚至可能因为某个task处理的数据量过大导致内存溢出。
1.数据倾斜问题的排查步骤
1). 查看Spark UI,在stage页面中可以看到每一个Stage的运行时间、Shuffle Read数据量和Shuffle Write数据量。
2). 根据运行时间、Shuffle read的数据量,选择一个认为可能会发生数据倾斜的stage,查看该Stage的detail页面。
3). 在detail页面可以查看所有executor和该Stage所有Task的运行时间、Shuffle read数据量。观察是否有些Task的shuffle read的数据量比其他task的shuffle read的数据量明显大很多。如果是则说明有很多数据跑到了这个Task上,也就是说这个Task所在的Stage发生了数据倾斜。
4). 从第3步定位到发生数据倾斜的Stage,然后根据spark切分Stage的逻辑,找到该Stage的代码,根据代码逻辑进一步分析数据倾斜的原因。
0x03 数据倾斜的解决方案
1. 过滤掉少数导致倾斜的key
如果导致倾斜的key对计算结果影响不大的话(例如为null的key), 可以直接过滤掉这些key。这样就可以避免数据倾斜。
缺点:适用场景不多,大多数情况下,导致数据倾斜的key需要参与计算,是不能过滤的。
2. 提高shuffle操作的并行度【推荐】
原理:> 在对RDD执行Shuffle算子时,给Shuffle算子增加下游分区数,如reduceByKey(1000),这样可以增加Shuffle read task的数量,可以让原本分配给一个task的多个key分配给多个task,从而让每个task处理比原来更少的数据。
优点:
实现简单,可以解决多个数据量不多的key分配到一个task导致的数据倾斜问题。
缺点:
不能解决单个key数据量大导致的数据倾斜问题。
结论:发现数据倾斜时,这种方案只能当做第一种手段,尝试使用最简单的方法缓解数据倾斜,但是不能从根本上解决数据倾斜问题(无法解决单个key的数据倾斜问题)。
3. 两阶段聚合(局部聚合+全局聚合)【推荐】
原理:将原本相同的key通过附加随机前缀的方式,变成多个不同的key,就可以让原本被一个task处理的数据分散到多个task上去做局部聚合,进而解决单个task数据量过大的问题。接着去掉随机前缀,再次进行全局聚合,就可以得到最终的结果。
优点:
对于聚合类的shuffle操作,可以解决单个key数据量大导致数据倾斜的问题。
缺点:
只能适用于聚合类的shuffle操作,不能用于join类操作。
4. 将reduce join转为mep join【推荐】
原理:消除shuffle过程
普通join会走shuffle过程,将相同key的数据拉取到一个Shuffle read task中再进行join,这就是reduce join,但如果一个RDD比较小,则可以采用广播小RDD全量数据+map算子来实现,也就是map join,此时不会发生Shuffle过程,也就不会发生数据倾斜。
优点:
对于处理大表join小表的数据倾斜问题,效果非常好,可以消除Shuffle过程,也就根本不会发生数据倾斜。
缺点:
只能适用于大表join小表的场景,另外,需要将小表进行广播,所以比较消耗内存,driver和每个executor内存都会驻留一份小表的全量数据。如果广播的小表数据量比较大,也有可能发生内存溢出——所以在使用map join的作业中需要增大Driver的分配内存。
5. 分离倾斜key并单独进行join操作【推荐】
原理:在两个大表A,B进行join的时候,其中A表的某些key数据量比较大,而B表的这些key数据量比较小(不可能同时存在两个表这些key的数据量都很大,那样会形成笛卡尔积),从两个表中分离出这些倾斜key的数据,此时,两个表分离出来的数据分别形成了一张大表A1和一张小表B1,A和B剩下的数据形成数据均匀的A2和B2,然后A1和B1使用map join,A2和B2使用普通join,因为A2和B2的数据分布比较均匀所以不会再造成数据倾斜。
优点:
可以解决两个大表join时的数据倾斜问题。
缺点:
如果A表的倾斜key很多的话,导致B表对应key的数据量也很大,最后也不能使用map join,不过可以将A表的倾斜key拆分成n份,分别进行处理。
参考:
https://tech.meituan.com/2016/05/12/spark-tuning-pro.html