阿里云E-MapReduce 3.13.0及后续版本的SparkSQL支持自适应执行功能,可以用来解决Reduce个数的动态调整、数据倾斜和执行计划的动态优化问题。
使用限制
本文针对SparkSQL自适应执行涉及到的参数适用于Spark 2.x。如果您使用的是Spark 3.x,请参见Adaptive Query Execution。
解决问题
SparkSQL自适应执行解决以下问题:
Shuffle partition个数
目前SparkSQL中reduce阶段的task个数取决于固定参数spark.sql.shuffle.partition(默认值200),一个作业一旦设置了该参数,运行过程中的所有阶段的reduce个数都是同一个值。
而对于不同的作业,以及同一个作业内的不同reduce阶段,实际的数据量大小可能相差很大,例如reduce阶段要处理的数据可能是10 MB,也有可能是100 GB,如果使用同一个值对实际运行效率会产生很大影响,例如10 MB的数据一个task就可以解决,如果spark.sql.shuffle.partition使用默认值200的话,那么10 MB的数据就要被分成200个task处理,增加了调度开销,影响运行效率。
SparkSQL自适应框架可以通过设置Shuffle partition的上下限区间,在这个区间内对不同作业不同阶段的reduce个数进行动态调整。
通过区间的设置,一方面可以大大减少调优的成本(不需要找到一个固定值),另一方面同一个作业内部不同reduce阶段的reduce个数也能动态调整。
涉及参数如下。
属性名称
默认值
描述
属性名称
默认值
描述
spark.sql.adaptive.enabled
false
自适应执行框架的开关。
spark.sql.adaptive.minNumPostShufflePartitions
1
reduce个数区间最小值。
spark.sql.adaptive.maxNumPostShufflePartitions
500
reduce个数区间最大值。
spark.sql.adaptive.shuffle.targetPostShuffleInputSize
67108864
动态调整reduce个数的partition大小依据,如果设置为64 MB,则reduce阶段每个task最少处理64 MB的数据。
spark.sql.adaptive.shuffle.targetPostShuffleRowCount
20000000
动态调整reduce个数的partition条数依据,如设置20000000则reduce阶段每个task最少处理20000000条的数据。
数据倾斜
JOIN中会经常碰到数据倾斜的场景,导致某些task处理的数据过多,出现很严重的长尾。目前SparkSQL没有对倾斜的数据进行相关的优化处理。
SparkSQL自适应框架可以根据预先的配置在作业运行过程中自动检测是否出现倾斜,并对检测到的倾斜进行优化处理。
优化的主要逻辑是对倾斜的partition进行拆分由多个task来进行处理,最后通过UNION进行结果合并。
支持的JOIN类型如下。
JOIN类型
描述
JOIN类型
描述
Inner
左或右表均可处理倾斜。
Cross
左或右表均可处理倾斜。
LeftSemi
只对左表处理倾斜。
LeftAnti
只对左表处理倾斜。
LeftOuter
只对左表处理倾斜。
RightOuter
只对右表处理倾斜。
涉及参数如下。
属性名称
默认值
备注
属性名称
默认值
备注
spark.sql.adaptive.enabled
false
自适应执行框架的开关。
spark.sql.adaptive.skewedJoin.enabled
false
倾斜处理开关。
spark.sql.adaptive.skewedPartitionFactor
10
当一个partition的size大于该值(所有partition大小的中位数) 且大于spark.sql.adaptive.skewedPartitionSizeThreshold,或者partition的条数大于该值(所有partition条数的中位数)且大于 spark.sql.adaptive.skewedPartitionRowCountThreshold, 才会被当做倾斜的partition进行相应的处理。
spark.sql.adaptive.skewedPartitionSizeThreshold
67108864
倾斜的partition大小不能小于该值。
spark.sql.adaptive.skewedPartitionRowCountThreshold
10000000
倾斜的partition条数不能小于该值。
spark.shuffle.statistics.verbose
false
打开后MapStatus会采集每个partition条数的信息,用于倾斜处理。
Runtime执行计划优化
SparkSQL的Catalyst优化器会将SQL语句转换成物理执行计划,然后真正运行物理执行计划。但是Catalyst转换物理执行计划的过程中,由于缺少Statistics统计信息,或者Statistics统计信息不准等原因,实际转换的物理执行计划可能并不是最优的,例如转换为SortMergeJoinExec,但实际BroadcastJoin更合适。
SparkSQL自适应执行框架会在物理执行计划真正运行的过程中,动态地根据shuffle阶段shuffle write的实际数据大小,来调整是否可以使用BroadcastJoin来代替SortMergeJoin,提高运行效率。
涉及参数如下。
属性名称
默认值
备注
属性名称
默认值
备注
spark.sql.adaptive.enabled
false
自适应执行框架的开关。
spark.sql.adaptive.join.enabled
true
开关。
spark.sql.adaptiveBroadcastJoinThreshold
为spark.sql.autoBroadcastJoinThreshold设置的参数值
运行过程中用于判断是否满足BroadcastJoin条件。
- 本页导读 (1)
- 使用限制
- 解决问题