美文网首页
Spark任务中Partition分区与HDFS中的Block数

Spark任务中Partition分区与HDFS中的Block数

作者: liuzx32 | 来源:发表于2018-12-28 15:56 被阅读28次

1. hdfs-block位于存储空间;spark-partition位于计算空间;

2. hdfs-block的大小是固定的;spark-partition大小是不固定的;

3. hdfs-block是有冗余的、不会轻易丢失;spark-partition(RDD)没有冗余设计、丢失之后重新计算得到;

#

相关文章

网友评论

      本文标题:Spark任务中Partition分区与HDFS中的Block数

      本文链接:https://www.haomeiwen.com/subject/fgfelqtx.html