美文网首页
spark.driver.maxResultSize参数详解

spark.driver.maxResultSize参数详解

作者: 香山上的麻雀 | 来源:发表于2019-11-21 09:48 被阅读0次

    参数含义及默认值:

    Limit of total size of serialized results of all partitions for each Spark action (e.g. collect). Should be at least 1M, or 0 for unlimited. Jobs will be aborted if the total size is above this limit. Having a high limit may cause out-of-memory errors in driver (depends on spark.driver.memory and memory overhead of objects in JVM). Setting a proper limit can protect the driver from out-of-memory errors.

    每个Spark action的所有分区的序列化结果的总大小限制(例如,collect行动算子)。 应该至少为1M,或者为无限制。 如果超过1g,job将被中止。 如果driver.maxResultSize设置过大可能会超出内存(取决于spark.driver.memory和JVM中对象的内存开销)。 设置适当的参数限制可以防止内存不足。

    默认值:1024M
    设置为0则为无限制,但是有OOM的风险

    相关文章

      网友评论

          本文标题:spark.driver.maxResultSize参数详解

          本文链接:https://www.haomeiwen.com/subject/ipezictx.html