美文网首页spark大数据程序员
Spark-core-架构及工作机制综述

Spark-core-架构及工作机制综述

作者: SiyueLin | 来源:发表于2016-06-04 22:53 被阅读3358次

    注:本文参考文献有书籍《Spark大数据处理:技术、应用与性能优化》、RDD的Paper《Resilient Distributed Datasets: A Fault-Tolerant Abstraction for In-Memory Cluster Computing》。从三个部分来解读Spark-core,首先是Spark的架构,阐述了Spark基于弹性分布式数据集RDD这个计算模型的工作机制(计算流程):Application->Job->Stage->Task 的分解、分发和并行计算;接下去从计算模型工作机制两个方面,分别解读RDD的设计思想及其算子,以及划分RDD有向无环图为Stage和Task、并行计算的工作机制。进一步的原理分析和源码研读将在该系列的后续文章中撰写。

    Spark的架构

    Spark采用了分布式计算中的Master-Slave模型。Master作为整个集群的控制器,负责整个集群的正常运行;Worker是计算节点,接受主节点命令以及进行状态汇报;Executor负责任务(Tast)的调度和执行;Client作为用户的客户端负责提交应用;Driver负责控制一个应用的执行。

    Spark架构图:出自《Spark大数据处理》

    Spark集群启动时,需要从主节点和从节点分别启动Master进程和Worker进程,对整个集群进行控制。在一个Spark应用的执行过程中,Driver是应用的逻辑执行起点,运行Application的main函数并创建SparkContext,DAGScheduler把对Job中的RDD有向无环图根据依赖关系划分为多个Stage,每一个Stage是一个TaskSet, TaskScheduler把Task分发给Worker中的Executor;Worker启动Executor,Executor启动线程池用于执行Task。

    Spark执行有向无环图:出自《Spark大数据处理》

    Spark的计算模型

    RDD:弹性分布式数据集,是一种内存抽象,可以理解为一个大数组,数组的元素是RDD的分区Partition,分布在集群上;在物理数据存储上,RDD的每一个Partition对应的就是一个数据块Block,Block可以存储在内存中,当内存不够时可以存储在磁盘上。

    RDD逻辑物理结构

    Hadoop将Mapreduce计算的结果写入磁盘,在机器学习、图计算、PageRank等迭代计算下,重用中间结果导致的反复I/O耗时过长,成为了计算性能的瓶颈。为了提高迭代计算的性能和分布式并行计算下共享数据的容错性,伯克利的设计者依据两个特性而设计了RDD:
    1、数据集分区存储在节点的内存中,减少迭代过程(如机器学习算法)反复的I/O操作从而提高性能。
    2、数据集不可变,并记录其转换过程,从而实现无共享数据读写同步问题、以及出错的可重算性。

    Operations:算子

    算子是RDD中定义的函数,可以对RDD中的数据进行转换和操作。如下图,Spark从外部空间(HDFS)读取数据形成RDD_0,Tranformation算子对数据进行操作(如fliter)并转化为新的RDD_1、RDD_2,通过Action算子(如collect/count)触发Spark提交作业。
      如上的分析过程可以看出,Tranformation算子并不会触发Spark提交作业,直至Action算子才提交作业,这是一个延迟计算的设计技巧,可以避免内存过快被中间计算占满,从而提高内存的利用率。

    Spark算子:出自《Spark大数据处理》

    下图是算子的列表,分三大类:Value数据类型的Tranformation算子;Key-Value数据类型的Tranformation算子;Action算子。

    RDD的算子:出自伯克利的RDD论文
    Lineage Graph:血统关系图

    下图的第一阶段生成RDD的有向无环图,即是血统关系图,记录了RDD的更新过程,当这个RDD的部分分区数据丢失时,它可以通过Lineage获取足够的信息来重新运算和恢复丢失的数据分区。DAGScheduler依据RDD的依赖关系将有向无环图划分为多个Stage,一个Stage对应着一系列的Task,由TashScheduler分发给Worker计算。

    RDD运行变化图

    Spark的工作机制

    本模块从六个方面,介绍Spark的内部运行机制。

    应用执行机制

    Spark应用(Application)是用户提交的应用程序,执行模式有Local、Standalone、YARN、Mesos。根据Application的Driver Program(或者YARN的AppMaster)是否在集群中运行,Spark应用的运行方式又可以分为Cluster模式和Client模式。
      Standalone模式
      Driver运行在客户端

    Driver运行在客户端:出自网络

    Driver运行在Worker

    Driver运行在Worker:出自网络   YARN模式 Spark on YARN架构:出自《Spark大数据处理》
    调度与任务分配

    从Spark整体上看,调度可以分为4个级别,Application调度 -> Job调度 -> Stage调度 -> Task调度。


    Spark应用转换流程:出自《Spark大数据处理》
    I/O机制

    序列化
      块管理

    通信机制

    Spark在模块间通信使用的是AKKA框架。AKKA基于Scala开发,用于编写Actor应用。Actors是一些包含状态和行为的对象。它们通过显式传递消息来进行通信,这些消息会被发送到它们的收信箱中(消息队列)。

    容错机制

    Lineage机制:记录粗粒度的更新
      Checkpoint机制:将RDD写入Disk做检查点。检查点的本质是作为Lineage做容错的辅助,lineage过长会造成容错成本过高。在计算的中间阶段做检查点容错,如果之后的节点出现问题而丢失分区,从做检查点的RDD开始重做Lineage,就可以减少开销。

    Shuffle机制

    当单进程空间无法容纳所有计算数据进行计算时,通过Shuffle将各个节点上相同的key拉取到某个节点上的一个task来进行处理,比如按照key进行聚合或join等操作。此时如果某个key对应的数据量特别大的话,就会发生数据倾斜。数据倾斜是Spark性能优化的一个重大课题。
      可能会触发shuffle操作的算子 :distinct、groupByKey、reduceByKey、aggregateByKey、join、cogroup、repartition等。
      Shuffle分为两个阶段:Shuffle Write和Shuffle Fetch。如下图:

    Shuffle机制:出自网络

    相关文章

      网友评论

      • 231d7648030c:感谢,Siyue老师。
      • 231d7648030c:你好,Siyue老师,我是36大数据的职员。请问这篇文章可以转载吗?我们会注明作者、来源以及版权的。谢谢。
        SiyueLin:@36大数据亮亮 感谢您的肯定,本文有多处阐述还不够深入,近日将予以补充修改,到时给你消息,可以吗
      • Samuel_zx:希望达到你这样分析和总结的水平。
        SiyueLin:@Samuel_zx 不敢不敢,很多段落文字摘抄或者参考《Spark大数据处理:技术、应用与性能优化》一书,一起向作者学习吧^_^
      • 鹿先森vv:楼主总结得非常好,shuffle可以更详细点
        SiyueLin:@Luvvein 谢谢给菜鸟的鼓励和建议(简书里收到的第一条评论),计划近期写一篇shuffle机制及优化的。

      本文标题:Spark-core-架构及工作机制综述

      本文链接:https://www.haomeiwen.com/subject/zebldttx.html