数据湖
-
Spark-Sql源码解析之七 Execute: executed Plan -> RDD[Row]详解大数据
SparkPlan如何执行呢,SparkPlan是如何转变为RDD[Row]的呢?首先看一段代码: SQLContext sqlContext = new SQLContext(j…
-
Spark-Sql源码解析之八 Codegen详解大数据
Codegen,动态字节码技术,那么什么是动态字节码技术呢?先看来一段代码,假设SparkPlan为Sort case class Sort( sortOrder: Seq[Sor…
-
Mongo+Spark详解大数据
本文转载自:http://www.mongoing.com/tj/mongodb_shanghai_spark 介绍 按照官方的定义,Spark 是一个通用,快速,适用于大规模数据…
-
Spark分区器HashPartitioner和RangePartitioner代码详解大数据
1.HashPartitioner分区怎么用源码解析? 2.RangePartitioner分区怎么用源码解析? 3.定位分区ID怎么用源码解析? &nb…
-
Spark算子执行流程详解之一大数据
1.take 获取前num条记录。 def take(num: Int): Array[T] = withScope { if (num == 0) { …
-
Spark算子执行流程详解之二大数据
4.count def count(): Long = sc.runJob(this, Utils.getIteratorSize_).sum 计算数据总量,每个分区各自计算自己的…
-
Spark算子执行流程详解之三大数据
10.aggregate 用与聚合RDD中的元素,先使用seqOp将RDD中每个分区中的T类型元素聚合成U类型,再使用combOp将之前每个分区聚合后的U类型聚合成U类型,特别注意…
-
Spark算子执行流程详解之四大数据
17.map /** * Return a new RDD by applying a function to all elements of this RDD. &n…
-
Spark算子执行流程详解之五大数据
22.combineByKey def combineByKey[C](createCombiner: V => C, m…
-
Spark算子执行流程详解之六大数据
26.coalesce coalesce顾名思义为合并,就是把多个分区的RDD合并成少量分区的RDD,这样可以减少任务调度的时间,但是请记住:合并之后不能保证结果RDD中的每个分区…