美文网首页
Spark性能优化之shuffle性能优化

Spark性能优化之shuffle性能优化

作者: 有一束阳光叫温暖 | 来源:发表于2019-02-15 17:59 被阅读0次

    1.没有开启consolidation机制的性能低下的原理剖析


    图一

    2.开启consolidation机制的性能低下的原理剖析


    图二

    new SparkConf().set("spark.shuffle.consolidateFiles", "true")
    spark.shuffle.consolidateFiles:是否开启shuffle block file的合并,默认为false
    spark.reducer.maxSizeInFlight:reduce task的拉取缓存,默认48m
    spark.shuffle.file.buffer:map task的写磁盘缓存,默认32k
    spark.shuffle.io.maxRetries:拉取失败的最大重试次数,默认3次
    spark.shuffle.io.retryWait:拉取失败的重试间隔,默认5s
    spark.shuffle.memoryFraction:用于reduce端聚合的内存比例,默认0.2,超过比例就会溢出到磁盘上

    相关文章

      网友评论

          本文标题:Spark性能优化之shuffle性能优化

          本文链接:https://www.haomeiwen.com/subject/omumeqtx.html