美文网首页
1.5.1 Spark(理论)

1.5.1 Spark(理论)

作者: 寒暄_HX | 来源:发表于2020-03-21 16:51 被阅读0次

    总目录:https://www.jianshu.com/p/e406a9bc93a9

    Hadoop - 子目录:https://www.jianshu.com/p/9428e443b7fd

    Spark概述

    Spark的起源

    Spark最初由美国加州伯克利大学的AMP实验室于2009年开发,是基于内存计算的大数据并行计算框架,可用于构建大型的、低延迟的数据分析应用程序。

    Spark的优点

    • 运行速度快:Spark使用先进的DAG(Directed Acyclic Graph,有向无环图)执行引擎,以支持循环数据流与内存计算,基于内存的执行速度可比Hadoop MapReduce快上百倍,基于磁盘的执行速度也能快十倍;


      逻辑回归算法中MapReduce和spark的计算耗时比较
    • 容易使用:Spark支持使用Scala、Java、Python和R语言进行编程,简洁的API设计有助于用户轻松构建并行程序,并且可以通过Spark Shell进行交互式编程;

    • 通用性:Spark提供了完整而强大的技术栈,包括SQL查询、流式计算、机器学习和图算法组件,这些组件可以无缝整合在同一个应用中,足以应对复杂的计算;

    • 运行模式多样:Spark可运行于独立的集群模式中,或者运行于Hadoop中,也可运行于Amazon EC2等云环境中,并且可以访问HDFS、Cassandra、HBase、Hive等多种数据源。

    Spark相对于MapReduce的优势

    MapReduce计算模型最致命的地方在于延迟过高,无法胜任实时、快速计算的需求,因而只适用于离线批处理的应用场景。
    而这个世界是必须要快的,不快就会死。
    总结一下MapReduce的缺点:

    • 表达能力有限。计算都必须要转化成Map和Reduce两个操作,但这并不适合所有的情况,难以描述复杂的数据处理过程;
    • 磁盘IO开销大。每次执行时都需要从磁盘读取数据,并且在计算完成后需要将中间结果写入到磁盘中,IO开销较大;
    • 延迟高。一次计算可能需要分解成一系列按顺序执行的MapReduce任务,任务之间的衔接由于涉及到IO开销,会产生较高延迟。而且,在前一个任务执行完成之前,其他任务无法开始,难以胜任复杂、多阶段的计算任务。

    其实这三点总结起来,就是僵硬,成本高,速度慢。
    相比较与MapReduce,spark的优点体现在:

    • Spark的计算模式也属于MapReduce,但不局限于Map和Reduce操作,还提供了多种数据集操作类型,编程模型比MapReduce更灵活;
    • Spark提供了内存计算,中间结果直接放到内存中,带来了更高的迭代运算效率;
    • Spark基于DAG的任务调度执行机制,要优于MapReduce的迭代执行机制。

    Spark最大的特点就是将计算数据、中间结果都存储在内存中,大大减少了IO开销。

    Spark提供了多种高层次、简洁的API,通常情况下,对于实现相同功能的应用程序,Spark的代码量要比Hadoop少2-5倍。

    而Spark已经很好地融入了Hadoop生态圈,并成为其中的重要一员,它可以借助于YARN实现资源调度管理,借助于HDFS实现分布式存储。

    示意图

    Spark的架构

    我们先看一下Spark的架构图。


    架构图

    我们先看看他么各自的角色:

    • Cluster Manager:在standalone模式中即为Master主节点,控制整个集群,监控worker。在YARN模式中为资源管理器
    • Worker节点:从节点,负责控制计算节点,启动Executor或者Driver。
    • Driver: 运行Application 的main()函数
    • Executor:执行器,是为某个Application运行在worker node上的一个进程

    Spark的架构原理

    之后我们来看看这条架构是怎么运行的。


    运行原理
    1. 构建Spark Application(Spark应用程序)的运行环境,启动SparkContext(Spark上下文管理)。
    2. SparkContext向资源管理器(可以是Standalone,Mesos,Yarn)申请运行Executor(容器)资源,并启动StandaloneExecutorbackend(容器调度器),
    3. Executor向SparkContext申请Task(任务)
    4. SparkContext将应用程序分发给Executor
    5. SparkContext构建成DAG图,将DAG图分解成Stage、将Taskset发送给Task Scheduler(任务调度器),最后由Task Scheduler将Task发送给Executor运行
    6. Task在Executor上运行,运行完释放所有资源

    Spark运行特点:

    每个Application获取专属的executor进程,该进程在Application期间一直驻留,并以多线程方式运行Task。

    这种Application(应用程序)隔离机制是有优势的,无论是从调度角度看(每个Driver调度他自己的任务),还是从运行角度看(来自不同Application的Task运行在不同JVM中),当然这样意味着Spark Application不能跨应用程序共享数据,除非将数据写入外部存储系统。

    Spark与资源管理器无关,只要能够获取executor进程,并能保持相互通信就可以了。

    提交SparkContext的Client应该靠近Worker节点(运行Executor的节点),最好是在同一个Rack里,因为Spark Application运行过程中SparkContext和Executor之间有大量的信息交换。

    Task采用了数据本地性和推测执行的优化机制。

    Spark生态系统

    生态图 实际应用

    Spark Core:包含Spark的基本功能;尤其是定义RDD的API、操作以及这两者上的动作。其他Spark的库都是构建在RDD和Spark Core之上的。

    Spark SQL:提供通过Apache Hive的SQL变体Hive查询语言(HiveQL)与Spark进行交互的API。每个数据库表被当做一个RDD,Spark SQL查询被转换为Spark操作。

    Spark Streaming:对实时数据流进行处理和控制。Spark Streaming允许程序能够像普通RDD一样处理实时数据。

    MLlib:一个常用机器学习算法库,算法被实现为对RDD的Spark操作。这个库包含可扩展的学习算法,比如分类、回归等需要对大量数据集进行迭代的操作。

    GraphX:控制图、并行图操作和计算的一组算法和工具的集合。GraphX扩展了RDD API,包含控制图、创建子图、访问路径上所有顶点的操作

    一些术语

    概念图
    • Application: Appliction都是指用户编写的Spark应用程序,其中包括一个Driver功能的代码和分布在集群中多个节点上运行的Executor代码
    • Driver: Spark中的Driver即运行上述Application的main函数并创建SparkContext,创建SparkContext的目的是为了准备Spark应用程序的运行环境,在Spark中有SparkContext负责与ClusterManager通信,进行资源申请、任务的分配和监控等,当Executor部分运行完毕后,Driver同时负责将SparkContext关闭,通常用SparkContext代表Driver
    • Executor: 某个Application运行在worker节点上的一个进程, 该进程负责运行某些Task, 并且负责将数据存到内存或磁盘上,每个Application都有各自独立的一批Executor, 在Spark on Yarn模式下,其进程名称为CoarseGrainedExecutor Backend。一个CoarseGrainedExecutor Backend有且仅有一个Executor对象, 负责将Task包装成taskRunner,并从线程池中抽取一个空闲线程运行Task, 这个每一个oarseGrainedExecutor Backend能并行运行Task的数量取决与分配给它的cpu个数
    • Cluter Manager:指的是在集群上获取资源的外部服务。目前有三种类型
      1. Standalon : spark原生的资源管理,由Master负责资源的分配
      2. Apache Mesos:与hadoop MR兼容性良好的一种资源调度框架
      3. Hadoop Yarn: 主要是指Yarn中的ResourceManager
    • Worker: 集群中任何可以运行Application代码的节点,在Standalone模式中指的是通过slave文件配置的Worker节点,在Spark on Yarn模式下就是NoteManager节点
    • Task: 被送到某个Executor上的工作单元,但hadoopMR中的MapTask和ReduceTask概念一样,是运行Application的基本单位,多个Task组成一个Stage,而Task的调度和管理等是由TaskScheduler负责
    • Job: 包含多个Task组成的并行计算,往往由Spark Action触发生成, 一个Application中往往会产生多个Job
    • Stage: 每个Job会被拆分成多组Task, 作为一个TaskSet, 其名称为Stage,Stage的划分和调度是有DAGScheduler来负责的,Stage有非最终的Stage(Shuffle Map Stage)和最终的Stage(Result Stage)两种,Stage的边界就是发生shuffle的地方
    • DAGScheduler: 根据Job构建基于Stage的DAG(Directed Acyclic Graph有向无环图),并提交Stage给TASkScheduler。 其划分Stage的依据是RDD之间的依赖的关系找出开销最小的调度方法,如下图
    • DAG
    • DAG的有向无环图
    • TASKSedulter: 将TaskSET提交给worker运行,每个Executor运行什么Task就是在此处分配的. TaskScheduler维护所有TaskSet,当Executor向Driver发生心跳时,TaskScheduler会根据资源剩余情况分配相应的Task。另外TaskScheduler还维护着所有Task的运行标签,重试失败的Task。下图展示了TaskScheduler的作用

    • TaskScheduler
    • 在不同运行模式中任务调度器具体为:

      1. Spark on Standalone模式为TaskScheduler
      2. YARN-Client模式为YarnClientClusterScheduler
      3. YARN-Cluster模式为YarnClusterScheduler
    • 将这些术语串起来的运行层次图如下:
    • 整体架构
    • Job=多个stage,Stage=多个同种task, Task分为ShuffleMapTask和ResultTask,Dependency分为ShuffleDependency和NarrowDependency

    相关文章

      网友评论

          本文标题:1.5.1 Spark(理论)

          本文链接:https://www.haomeiwen.com/subject/cutuyhtx.html