美文网首页
spark.driver.maxResultSize参数详解

spark.driver.maxResultSize参数详解

作者: 香山上的麻雀 | 来源:发表于2019-11-21 09:48 被阅读0次

参数含义及默认值:

Limit of total size of serialized results of all partitions for each Spark action (e.g. collect). Should be at least 1M, or 0 for unlimited. Jobs will be aborted if the total size is above this limit. Having a high limit may cause out-of-memory errors in driver (depends on spark.driver.memory and memory overhead of objects in JVM). Setting a proper limit can protect the driver from out-of-memory errors.

每个Spark action的所有分区的序列化结果的总大小限制(例如,collect行动算子)。 应该至少为1M,或者为无限制。 如果超过1g,job将被中止。 如果driver.maxResultSize设置过大可能会超出内存(取决于spark.driver.memory和JVM中对象的内存开销)。 设置适当的参数限制可以防止内存不足。

默认值:1024M
设置为0则为无限制,但是有OOM的风险

相关文章

网友评论

      本文标题:spark.driver.maxResultSize参数详解

      本文链接:https://www.haomeiwen.com/subject/ipezictx.html