美文网首页
Spark任务中Partition分区与HDFS中的Block数

Spark任务中Partition分区与HDFS中的Block数

作者: liuzx32 | 来源:发表于2018-12-28 15:56 被阅读28次

    1. hdfs-block位于存储空间;spark-partition位于计算空间;

    2. hdfs-block的大小是固定的;spark-partition大小是不固定的;

    3. hdfs-block是有冗余的、不会轻易丢失;spark-partition(RDD)没有冗余设计、丢失之后重新计算得到;

    #

    相关文章

      网友评论

          本文标题:Spark任务中Partition分区与HDFS中的Block数

          本文链接:https://www.haomeiwen.com/subject/fgfelqtx.html