美文网首页首页投稿(暂停使用,暂停投稿)Spark 应用
Spark算子:统计RDD分区中的元素及数量

Spark算子:统计RDD分区中的元素及数量

作者: ZyZhu | 来源:发表于2016-05-06 13:54 被阅读369次

    Spark RDD是被分区的,在生成RDD时候,一般可以指定分区的数量,如果不指定分区数量,当RDD从集合创建时候,则默认为该程序所分配到的资源的CPU核数,如果是从HDFS文件创建,默认为文件的Block数。

    ​具体看例子:

    ​//创建一个RDD,默认分区15个,因为我的spark-shell指定了一共使用15个CPU资源//–total-executor-cores 15

    rdd1 parititons

    //统计rdd1每个分区中元素数量

    partition中元素数量

    //统计rdd1每个分区中有哪些元素

    partition中元素

    ​//从HDFS文件创建的RDD,包含65个分区,因为该文件由65个Block

    rdd2 partitions

    //rdd2每个分区的元素数量

    partition中元素数量

    相关文章

      网友评论

        本文标题:Spark算子:统计RDD分区中的元素及数量

        本文链接:https://www.haomeiwen.com/subject/xvljrttx.html