Spark统一内存管理

作者: jacksu在简书 | 来源:发表于2016-02-21 16:12 被阅读1257次

spark从1.6.0开始内存管理发生了变化,原来的内存管理由StaticMemoryManager实现,现在被称为Legacy,在1.5.x和1.6.0中运行相同代码的行为是不同的,为了兼容Legacy,可以通过spark.memory.useLegacyMode来设置,默认该参数是关闭的。

前面有一篇介绍spark内存管理的文章spark内存概述,现在介绍1.6.0的内存管理,由UnifiedMemoryManager实现。

1.6.0的统一内存管理如下:

Spark-Memory-Management-1.6.0Spark-Memory-Management-1.6.0

主要有三部分组成:

1 Reserved Memory

这部分内存是预留给系统使用,是固定不变的。在1.6.0默认为300MB(RESERVED_SYSTEM_MEMORY_BYTES = 300 * 1024 * 1024),这一部分内存不计算在spark execution和storage中,除了重新编译spark和spark.testing.reservedMemory,Reserved Memory是不可以改变的,spark.testing.reservedMemory不推荐使用在实际运行环境中。是用来存储Spark internal objects,并且限制JVM的大小,如果executor的大小小于1.5 * Reserved Memory = 450MB ,那么就会报 “please use larger heap size”的错误,源码如下。

    val minSystemMemory = reservedMemory * 1.5
    if (systemMemory < minSystemMemory) {
      throw new IllegalArgumentException(s"System memory $systemMemory must " +
        s"be at least $minSystemMemory. Please use a larger heap size.")
    }

2 User Memory

分配Spark Memory剩余的内存,用户可以根据需要使用。可以存储RDD transformations需要的数据结构,例如, 重写spark aggregation,使用mapPartition transformation,通过hash table来实现aggregation,这样使用的就是User Memory。在1.6.0中,计算方法为(“Java Heap” – “Reserved Memory”) * (1.0 – spark.memory.fraction),默认为(“Java Heap” – 300MB) * 0.25,比如4GB的heap大小,那么User Memory的大小为949MB。由用户来决定存储的数据量,因此要遵守这个边界,不然会导致OOM。

3 Spark Memory

计算方式是(“Java Heap” – “Reserved Memory”) * spark.memory.fraction,在1.6.0中,默认为(“Java Heap” – 300MB) * 0.75。例如推的大小为4GB,那么Spark Memory为2847MB。Spark Memory又分为Storage MemoryExecution Memory两部分。两个边界由spark.memory.storageFraction设定,默认为0.5。但是两部分可以动态变化,相互之间可以借用,如果一方使用完,可以向另一方借用。先看看两部分是如何使用的。

  • Storage Memory 用来存储spark cached data也可作为临时空间存储序列化unrollbroadcast variables作为cached block存储,但是需要注意,这是unroll源码,unrolled block如果内存不够,会存储在driver端。broadcast variables大部分存储级别为MEMORY_AND_DISK

  • Execution Memory 存储Spark task执行过程中需要的对象,例如,Shuffle中map端中间数据的存储,以及hash aggregation中的hash table。如果内存不足,该空间也容许spill到磁盘。

Execution Memory不可以淘汰block,不然执行的时候就会fail,如果找不到block。Storage Memory中的内容可以淘汰。Execution Memory满足两种情况可以向Storage Memory借用空间:

  1. Storage Memory还有free空间

  2. Storage Memory大于初始化时的空间("Spark Memory" * spark.memory.storageFraction = (“Java Heap” – “Reserved Memory”) * spark.memory.fraction * spark.memory.storageFraction)

Storage Memory只有在Execution Memory有free空间时,才可以借用。

参考

spark memory management

Spark Broadcast

相关文章

  • Spark源码分析十三-内存管理模型

    在分析spark内存管理源码之前,先来了解下,统一内存模型原理性的知识,spark在3.0版本移除了静态内存管理的...

  • spark内存管理笔记摘抄

    spark内存使用大小管理 MemoryManager 的具体实现上,Spark 1.6 之后默认为统一管理(Un...

  • Spark统一内存管理

    前言 Spark 2.X中堆内存的管理方式称为"统一内存管理", 实现在UnifiedMemoryManager....

  • Spark统一内存管理

    spark从1.6.0开始内存管理发生了变化,原来的内存管理由StaticMemoryManager实现,现在被称...

  • spark 统一内存管理

    Spark 1.6 之后引入的统一内存管理机制,与静态内存管理的区别在于存储内存和执行内存共享同一块空间,可以动态...

  • spark学习三内存管理

    该文章说的清晰明了,好文,赞一个! Apache Spark 统一内存管理模型详解 – 过往记忆

  • spark统一内存管理模型

    参考:https://www.iteblog.com/archives/2342.htmlspark新的内存管理框...

  • spark统一内存管理器UnifiedMemoryManager

    在1.6版本之前spark采用静态内存管理器StaticMemoryManager进行内存管理,而在之后spark...

  • 漫谈Spark内存管理(二)

    在漫谈Spark内存管理(一)中,概述了Spark内存管理做的事情,并着重对unroll memory的概念做了解...

  • Spark Shuffle

    Spark 内存管理和消费模型 Spark Shuffle 过程 Spark Shuffle OOM 可能性分析 ...

网友评论

  • 钝_悟:spark.memory.fraction的值为0.6,不是0.75.老铁

本文标题:Spark统一内存管理

本文链接:https://www.haomeiwen.com/subject/zyavkttx.html