1.RDD是什么
RDD:Spark的核心概念是RDD (resilientdistributed dataset),指的是一个只读的,可分区的,抽象的,可并行计算的分布式数据集,这个数据集的全部或部分可以缓存在内存中,在多次计算间重用,有很强的的伸缩性
2.RDD的属性
(1)一组分片(Partition),即数据集的基本组成单位。对于RDD来说,每个分片都会被一个计算任务处理,并决定并行计算的粒度。用户可以在创建RDD时指定RDD的分片个数,如果没有指定,那么就会采用默认值。默认值就是程序所分配到的CPU Core的数目。
(2)一个计算每个分区的函数。Spark中RDD的计算是以分片为单位的,每个RDD都会实现compute函数以达到这个目的。compute函数会对迭代器进行复合,不需要保存每次计算的结果。
(3)RDD之间的依赖关系。RDD的每次转换都会生成一个新的RDD,所以RDD之间就会形成类似于流水线一样的前后依赖关系。在部分分区数据丢失时,Spark可以通过这个依赖关系重新计算丢失的分区数据,而不是对RDD的所有分区进行重新计算。
(4)一个Partitioner,即RDD的分片函数。当前Spark中实现了两种类型的分片函数,一个是基于哈希的HashPartitioner,另外一个是基于范围的RangePartitioner。只有对于于key-value的RDD,才会有Partitioner,非key-value的RDD的Parititioner的值是None。Partitioner函数不但决定了RDD本身的分片数量,也决定了parent RDD Shuffle输出时的分片数量。
(5)一个列表,存储存取每个Partition的优先位置(preferred location)。对于一个HDFS文件来说,这个列表保存的就是每个Partition所在的块的位置。按照“移动数据不如移动计算”的理念,Spark在进行任务调度的时候,会尽可能地将计算任务分配到其所要处理数据块的存储位置。
3.RDD的创建
4.RDD的两个操作
rdd分为两个操作,分别为Transformation和Action
(1)Transformation
主要做的是就是将一个已有的RDD生成另外一个RDD。Transformation具有lazy特性(延迟加载)。Transformation算子的代码不会真正被执行。只有当我们的程序里面遇到一个action算子的时候,代码才会真正的被执行。这种设计让Spark更加有效率地运行。
常用的有:
map:返回一个新的RDD
filter: :返回一个新的RDD,该RDD计算后由返回值为true的输入元素组成
flatMap:类似于map,但是每一个输入元素可以被映射为0或多个输出元素
mapPartitions:类似于map,但独立地在RDD的每一个分片上运行
mapPartitionsWithIndex:类似于mapPartitions,但func带有一个整数参数表示分片的索引值,因此在类型为T的RDD上运行时,func的函 数类型必须是(Int, Interator[T]) => Iterator[U]
distinct:对原RDD进行去重后返回一个新的RDD
groupByKey:在一个(K,V)的RDD上调用,返回一个(K, Iterator[V])的RDD
(2)Action:
触发代码的运行,我们一段spark代码里面至少需要有一个action操作。
常用的有:
collect():在驱动程序中,以数组的形式返回数据集的所有元素
count():返回RDD的元素个数
take(n):返回一个由数据集的前n个元素组成的数组
saveAsTextFile(path):将数据集的元素以textfile的形式保存到HDFS文件系统或者其他支持的文件系统,对于每个元素,Spark将会调用 toString方法,将它装换为文件中的文本
countByKey():针对(K,V)类型的RDD,返回一个(K,Int)的map,表示每一个key对应的元素个数。
aggregate:先对分区进行操作,在总体操作
网友评论