Spark分区器HashPartitioner和RangePartitioner代码详解大数据

1.HashPartitioner分区怎么用源码解析?
2.RangePartitioner分区怎么用源码解析?
3.定位分区ID怎么用源码解析?

Spark分区器HashPartitioner和RangePartitioner代码详解大数据

      在Spark中分区器直接决定了RDD中分区的个数;也决定了RDD中每条数据经过Shuffle过程属于哪个分区;也决定了Reduce的个数。这三点看起来是不同的方面的,但其深层的含义是一致的。
  我们需要注意的是,只有Key-Value类型的RDD才有分区的,非Key-Value类型的RDD分区的值是None的。
  在Spark中,存在两类分区函数:HashPartitioner和RangePartitioner,它们都是继承自Partitioner,主要提供了每个RDD有几个分区(numPartitions)以及对于给定的值返回一个分区ID(0~numPartitions-1),也就是决定这个值是属于那个分区的。

HashPartitioner分区

  HashPartitioner分区的原理很简单,对于给定的key,计算其hashCode,并除于分区的个数取余,如果余数小于0,则用余数+分区的个数,最后返回的值就是这个key所属的分区ID。实现如下:
  1. /////////////////////////////////////////////////////////////////////
  2. User: 过往记忆
  3. Date: 2015-11-10
  4. Time: 06:59
  5. bolg: http://www.iteblog.com
  6. 本文地址:http://www.iteblog.com/archives/1522
  7. 过往记忆博客,专注于hadoop、hive、spark、shark、flume的技术博客,大量的干货
  8. 过往记忆博客微信公共帐号:iteblog_hadoop
  9. /////////////////////////////////////////////////////////////////////
  10. class HashPartitioner(partitions: Int) extends Partitioner {
  11.   require(partitions >= 0, s”Number of partitions ($partitions) cannot be negative.”)
  12.   def numPartitions: Int = partitions
  13.   def getPartition(key: Any): Int = key match {
  14.     case null => 0
  15.     case _ => Utils.nonNegativeMod(key.hashCode, numPartitions)
  16.   }
  17.   override def equals(other: Any): Boolean = other match {
  18.     case h: HashPartitioner =>
  19.       h.numPartitions == numPartitions
  20.     case _ =>
  21.       false
  22.   }
  23.   override def hashCode: Int = numPartitions
  24. }

复制代码



RangePartitioner分区

  从HashPartitioner分区的实现原理我们可以看出,其结果可能导致每个分区中数据量的不均匀,极端情况下会导致某些分区拥有RDD的全部数据,这显然不是我们需要的。而RangePartitioner分区则尽量保证每个分区中数据量的均匀,而且分区与分区之间是有序的,也就是说一个分区中的元素肯定都是比另一个分区内的元素小或者大;但是分区内的元素是不能保证顺序的。简单的说就是将一定范围内的数映射到某一个分区内。
  前面讨论过,RangePartitioner分区器的主要作用就是将一定范围内的数映射到某一个分区内,所以它的实现中分界的算法尤为重要。这个算法对应的函数是rangeBounds。这个函数主要经历了两个过程:以Spark 1.1版本为界,Spark 1.1版本社区对rangeBounds函数进行了一次重大的重构。
  因为在Spark 1.1版本之前,RangePartitioner分区对整个数据集进行了2次的扫描:一次是计算RDD中元素的个数;一次是进行采样。具体的代码如下:
  1. // An array of upper bounds for the first (partitions – 1) partitions
  2. private val rangeBounds: Array[K] = {
  3.     if (partitions == 1) {
  4.       Array()
  5.     } else {
  6.       val rddSize = rdd.count()
  7.       val maxSampleSize = partitions * 20.0
  8.       val frac = math.min(maxSampleSize / math.max(rddSize, 1), 1.0)
  9.       val rddSample = rdd.sample(false, frac, 1).map(_._1).collect().sorted
  10.       if (rddSample.length == 0) {
  11.         Array()
  12.       } else {
  13.         val bounds = new Array[K](partitions – 1)
  14.         for (i <- 0 until partitions – 1) {
  15.           val index = (rddSample.length – 1) * (i + 1) / partitions
  16.           bounds(i) = rddSample(index)
  17.         }
  18.         bounds
  19.       }
  20.     }
  21. }

复制代码


  注意看里面的rddSize的计算和rdd.sample的计算。所以如果你进行一次sortByKey操作就会对RDD扫描三次!而我们都知道,分区函数性能对整个Spark作业的性能是有直接的影响,而且影响很大,直接影响作业运行的总时间,所以社区不得不对RangePartitioner中的rangeBounds算法进行重构。
  在阅读新版本的RangePartitioner之前,建议先去了解一下Reservoir sampling(水塘抽样),因为其中的实现用到了Reservoir sampling算法进行采样。

采样总数
  在新的rangeBounds算法总,采样总数做了一个限制,也就是最大只采样1e6的样本(也就是1000000):
  1. val sampleSize = math.min(20.0 * partitions, 1e6)

复制代码








所以如果你的分区个数为5,则采样样本数量为100.0
父RDD中每个分区采样样本数
  按照我们的思路,正常情况下,父RDD每个分区需要采样的数据量应该是sampleSize/rdd.partitions.size,但是我们看代码的时候发现父RDD每个分区需要采样的数据量是正常数的3倍。
  1. val sampleSizePerPartition = math.ceil(3.0 * sampleSize / rdd.partitions.size).toInt

复制代码


这是因为父RDD各分区中的数据量可能会出现倾斜的情况,乘于3的目的就是保证数据量小的分区能够采样到足够的数据,而对于数据量大的分区会进行第二次采样。
采样算法
  这个地方就是RangePartitioner分区的核心了,其内部使用的就是水塘抽样,而这个抽样特别适合那种总数很大而且未知,并无法将所有的数据全部存放到主内存中的情况。也就是我们不需要事先知道RDD中元素的个数(不需要调用rdd.count()了!)。其主要实现如下:
  1. /////////////////////////////////////////////////////////////////////
  2. User: 过往记忆
  3. Date: 2015-11-10
  4. Time: 06:59
  5. bolg: http://www.iteblog.com
  6. 本文地址:http://www.iteblog.com/archives/1522
  7. 过往记忆博客,专注于hadoop、hive、spark、shark、flume的技术博客,大量的干货
  8. 过往记忆博客微信公共帐号:iteblog_hadoop
  9. /////////////////////////////////////////////////////////////////////
  10. val (numItems, sketched) = RangePartitioner.sketch(rdd.map(_._1), sampleSizePerPartition)
  11. def sketch[K : ClassTag](
  12.       rdd: RDD[K],
  13.       sampleSizePerPartition: Int): (Long, Array[(Int, Int, Array[K])]) = {
  14.     val shift = rdd.id
  15.     // val classTagK = classTag[K] // to avoid serializing the entire partitioner object
  16.     val sketched = rdd.mapPartitionsWithIndex { (idx, iter) =>
  17.       val seed = byteswap32(idx ^ (shift << 16))
  18.       val (sample, n) = SamplingUtils.reservoirSampleAndCount(
  19.         iter, sampleSizePerPartition, seed)
  20.       Iterator((idx, n, sample))
  21.     }.collect()
  22.     val numItems = sketched.map(_._2.toLong).sum
  23.     (numItems, sketched)
  24. }
  25. def reservoirSampleAndCount[T: ClassTag](
  26.       input: Iterator[T],
  27.       k: Int,
  28.       seed: Long = Random.nextLong())
  29.     : (Array[T], Int) = {
  30.     val reservoir = new Array[T](k)
  31.     // Put the first k elements in the reservoir.
  32.     var i = 0
  33.     while (i < k && input.hasNext) {
  34.       val item = input.next()
  35.       reservoir(i) = item
  36.       i += 1
  37.     }
  38.     // If we have consumed all the elements, return them. Otherwise do the replacement.
  39.     if (i < k) {
  40.       // If input size < k, trim the array to return only an array of input size.
  41.       val trimReservoir = new Array[T](i)
  42.       System.arraycopy(reservoir, 0, trimReservoir, 0, i)
  43.       (trimReservoir, i)
  44.     } else {
  45.       // If input size > k, continue the sampling process.
  46.       val rand = new XORShiftRandom(seed)
  47.       while (input.hasNext) {
  48.         val item = input.next()
  49.         val replacementIndex = rand.nextInt(i)
  50.         if (replacementIndex < k) {
  51.           reservoir(replacementIndex) = item
  52.         }
  53.         i += 1
  54.       }
  55.       (reservoir, i)
  56. }
  57. }

复制代码


  RangePartitioner.sketch的第一个参数是rdd.map(_._1),也就是把父RDD的key传进来,因为分区只需要对Key进行操作即可。该函数返回值是val (numItems, sketched) ,其中numItems相当于记录rdd元素的总数;而sketched的类型是Array[(Int, Int, Array[K])],记录的是分区的编号、该分区中总元素的个数以及从父RDD中每个分区采样的数据。
  sketch函数对父RDD中的每个分区进行采样,并记录下分区的ID和分区中数据总和。
  reservoirSampleAndCount函数就是典型的水塘抽样实现,唯一不同的是该算法还记录下i的值,这个就是该分区中元素的总和。
  我们之前讨论过,父RDD各分区中的数据量可能会均匀,在极端情况下,有些分区内的数据量会占有整个RDD的绝大多数的数据,如果按照水塘抽样进行采样,会导致该分区所采样的数据量不足,所以我们需要对该分区再一次进行采样,而这次采样使用的就是rdd的sample函数。实现如下:
  1. val fraction = math.min(sampleSize / math.max(numItems, 1L), 1.0)
  2. val candidates = ArrayBuffer.empty[(K, Float)]
  3. val imbalancedPartitions = mutable.Set.empty[Int]
  4. sketched.foreach { case (idx, n, sample) =>
  5.   if (fraction * n > sampleSizePerPartition) {
  6.     imbalancedPartitions += idx
  7.   } else {
  8.     // The weight is 1 over the sampling probability.
  9.     val weight = (n.toDouble / sample.size).toFloat
  10.     for (key <- sample) {
  11.       candidates += ((key, weight))
  12.     }
  13.   }
  14. }
  15. if (imbalancedPartitions.nonEmpty) {
  16.   // Re-sample imbalanced partitions with the desired sampling probability.
  17.   val imbalanced = new PartitionPruningRDD(rdd.map(_._1), imbalancedPartitions.contains)
  18.   val seed = byteswap32(-rdd.id – 1)
  19.   val reSampled = imbalanced.sample(withReplacement = false, fraction, seed).collect()
  20.   val weight = (1.0 / fraction).toFloat
  21.   candidates ++= reSampled.map(x => (x, weight))
  22. }

复制代码


我们可以看到,重新采样的采样因子和Spark 1.1之前的采样因子一致。对于满足于
fraction * n > sampleSizePerPartition条件的分区,我们对其再一次采样。所有采样完的数据全部存放在candidates 中。

确认边界

从上面的采样算法可以看出,对于不同的分区weight的值是不一样的,这个值对应的就是每个分区的采样间隔。
  1. def determineBounds[K : Ordering : ClassTag](
  2.     candidates: ArrayBuffer[(K, Float)],
  3.     partitions: Int): Array[K] = {
  4.   val ordering = implicitly[Ordering[K]]
  5.   val ordered = candidates.sortBy(_._1)
  6.   val numCandidates = ordered.size
  7.   val sumWeights = ordered.map(_._2.toDouble).sum
  8.   val step = sumWeights / partitions
  9.   var cumWeight = 0.0
  10.   var target = step
  11.   val bounds = ArrayBuffer.empty[K]
  12.   var i = 0
  13.   var j = 0
  14.   var previousBound = Option.empty[K]
  15.   while ((i < numCandidates) && (j < partitions – 1)) {
  16.     val (key, weight) = ordered(i)
  17.     cumWeight += weight
  18.     if (cumWeight > target) {
  19.       // Skip duplicate values.
  20.       if (previousBound.isEmpty || ordering.gt(key, previousBound.get)) {
  21.         bounds += key
  22.         target += step
  23.         j += 1
  24.         previousBound = Some(key)
  25.       }
  26.     }
  27.     i += 1
  28.   }
  29.   bounds.toArray
  30. }

复制代码








这个函数最后返回的就是分区的划分边界。

注意,按照理想情况,选定的划分边界需要保证划分后的分区中数据量是均匀的,但是这个算法中如果将cumWeight > target修改成cumWeight >= target的时候会保证各分区之间数据量更加均衡。可以看这里
https://issues.apache.org/jira/browse/SPARK-10184


定位分区ID
分区类的一个重要功能就是对给定的值计算其属于哪个分区。这个算法并没有太大的变化。
  1. def getPartition(key: Any): Int = {
  2.   val k = key.asInstanceOf[K]
  3.   var partition = 0
  4.   if (rangeBounds.length <= 128) {
  5.     // If we have less than 128 partitions naive search
  6.     while (partition < rangeBounds.length && ordering.gt(k, rangeBounds(partition))) {
  7.       partition += 1
  8.     }
  9.   } else {
  10.     // Determine which binary search method to use only once.
  11.     partition = binarySearch(rangeBounds, k)
  12.     // binarySearch either returns the match location or -[insertion point]-1
  13.     if (partition < 0) {
  14.       partition = -partition-1
  15.     }
  16.     if (partition > rangeBounds.length) {
  17.       partition = rangeBounds.length
  18.     }
  19.   }
  20.   if (ascending) {
  21.     partition
  22.   } else {
  23.     rangeBounds.length – partition
  24.   }
  25. }

复制代码

如果分区边界数组的大小小于或等于128的时候直接变量数组,否则采用二分查找法确定key属于某个分区。




原文链接:
http://blog.csdn.net/xiao_jun_0820/article/details/45913745


原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/tech/bigdata/9304.html

(0)
上一篇 2021年7月19日 09:24
下一篇 2021年7月19日 09:24

相关推荐

发表回复

登录后才能评论