美文网首页Spark
Spark作业并行度原则

Spark作业并行度原则

作者: 麦子星星 | 来源:发表于2019-03-25 13:21 被阅读0次

    1、Task数量,至少设置成与Spark application的总cpu core数量相同(最理想情况,比如总共150个cpu core,分配了150个task,一起运行,差不多同一时间运行完毕)

    2、官方是推荐,task数量,设置成spark application总cpu core数量的2~3倍,比如150个cpu core,基本要设置task数量为300~500;

    3、实际情况,与理想情况不同的,有些task会运行的快一点,比如50s就完了,有些task,可能会慢一点,要1分半才运行完,所以如果你的task数量,刚好设置的跟cpu core数量相同,可能还是会导致资源的浪费,因为,比如150个task,10个先运行完了,剩余140个还在运行,但是这个时候,有10个cpu core就空闲出来了,就导致了浪费。那如果task数量设置成cpu core总数的2~3倍,那么一个task运行完了以后,另一个task马上可以补上来,就尽量让cpu core不要空闲,同时也是尽量提升spark作业运行的效率和速度,提升性能

    4、设置一个Spark Application的并行度

    spark.default.parallelism SparkConf conf =newSparkConf()  .set("spark.default.parallelism","500")

    相关文章

      网友评论

        本文标题:Spark作业并行度原则

        本文链接:https://www.haomeiwen.com/subject/vgpvvqtx.html