美文网首页
Structed Streaming 页面job显示不连续原因分

Structed Streaming 页面job显示不连续原因分

作者: WestC | 来源:发表于2018-06-27 11:27 被阅读0次

    问题现象:

    提交Structed Streaming应用,查看job页面信息,job编号显示不连续,如下图所示:


    屏幕快照 2018-06-25 下午5.21.25.png

    下文将对如下三个问题进行分别分析,以便完整解释job显示不连续:

    • 是否真正产生了两个个job
    • Job是如何产生的
    • 为何页面只显示一个job

    确实产生了两个job

    记忆中,spark的job是顺序增加的。显示的时候少了一部分,于是再次查看spark提交job的逻辑,在DAGScheduler的submitJob方法中,会调用如下逻辑增加jobId,可见jobId一定是按顺序产生。

    val jobId = nextJobId.getAndIncrement()
    

    查看driver日志,发现job调度时,一个批次内触发两个job,编号为“奇数”发job,提交后,立刻打印运行结束。

    18/06/25 15:49:01 INFO SparkContext: Starting job: start at StreamApp.scala:271
    18/06/25 15:49:16 INFO DAGScheduler: Job 0 finished: start at StreamApp.scala:271, took 14.945671 s
    18/06/25 15:49:16 INFO SparkContext: Starting job: start at StreamApp.scala:271
    18/06/25 15:49:16 INFO DAGScheduler: Job 1 finished: start at StreamApp.scala:271, took 0.000045 s
    

    Job是如何产生的

    查看microBatchExecution的调度逻辑,在每个批次内只会触发一次batch的操作(nextBatch.collet)。如下:

    reportTimeTaken("addBatch") {
      SQLExecution.withNewExecutionId(sparkSessionToRunBatch, lastExecution) {
        sink match {
          case s: Sink => s.addBatch(currentBatchId, nextBatch)
          case _: StreamWriteSupport =>
            // This doesn't accumulate any data - it just forces execution of the microbatch writer.
            nextBatch.collect()
        }
      }
    }
    

    从调度层无法看出为何会触发两个job,于是使用Debug模式,将断点设置在DAGScheduler的runJob方法中submit这一行。Debug时,两次观察运行到此处的线程堆栈如下:

    屏幕快照 2018-06-25 下午4.58.58.png
    屏幕快照 2018-06-25 下午5.00.02.png

    可以看出,一次collect触发了两次job提交,均在SparkPlan的executeCollect方法中。

    两个job是如何触发的:

    一次Job在SparkPlan的executeCollect方法中,通过调用getBytesRdd方法中的execute完成job的提交。


    屏幕快照 2018-06-27 上午11.17.03.png

    第二次是调用bytesArrayRdd.collect方法,显然会触发一次action。


    屏幕快照 2018-06-27 上午11.17.09.png

    为何每个批次只在页面显示一个Job

    Spark页面

    Spark应用在运行时,driver直接会将任务信息直接展示在页面上,同时将运行的任务信息记录在event文件中,以便在应用运行结束后,JobHistory进程可以根据event文件将任务运行情况展示在页面上,以便观察和分析业务运行。

    以SparkListenerJobStart方法为例,


    屏幕快照 2018-06-27 上午11.17.14.png

    页面展示原理如下:

    Spark定义一系列的SparkListenerEvent事件,在执行动作如提交job,stage,task以及完成时,都会将相关的事件通过Listenerbus的put方法放入一个linkedBlockingQueue中

    运行中的应用的UI展示

    事件信息的存储:

    Spark driver中启动一个spark-listener-group-appStatus线程,从linkedBlockingQueue中获取数据,通过相应listener的处理时间的方法,完成时间的相应处理。里onJobStart事件为例,会调用appStatusListener的onJobEvent方法处理该事件,该方法将事件写入InMemoryStore中一个名为data的hashMap中


    屏幕快照 2018-06-27 上午11.24.11.png

    事件信息的展示:

    在点击ui页面的job页面时,会调用到AllJobsPage.scala中的render方法,通过store.jobList调用InMemorystore.view方法从data中获取job信息

    运行结束后的应用UI展示

    事件信息的存储:

    在应用运行时driver内部启动一个spark-listener-group-eventLog线程,从上述queue中获取event事件并通过listener处理相关请求,eventLoggingListener会调用doPostEvent方法根据消息类型分别处理,对于SparkListenerJobStart事件,会将消息转化为json串并写入event日志。

    如下以SparkListenerJobStart事件为例,记录event事件流程如下:


    屏幕快照 2018-06-27 上午11.21.05.png

    事件信息的展示:

    在jobHistory页面点击app,进入app UI展示, 在job页面,会调用到AllJobsPage.scala中的render方法,通过store.jobList调用elementTrackingstore.read方法从eventLog文件中获取job信息

    而在第一个job的WriteToDataSourceV2Exec中返回的rdd为SprakConText.emptyRDD,也就是执行上述collect时,返回的bytesArrayRdd为EmptyRDD,查看代码可以看到RDD的partitions为0,查看DagScheduler的submit方法

    if (partitions.size == 0) {
      // Return immediately if the job is running 0 tasks
      return new JobWaiter[U](this, jobId, 0, resultHandler)
    }
    

    可以看到在提交job生成jobid后,如果RDD的partitions为0,则直接返回,并没有触发真正的job提交,stage划分,task调度等操作,也就不会有相应的job相关的信息生成,自然也就不会展示在页面上。

    相关文章

      网友评论

          本文标题:Structed Streaming 页面job显示不连续原因分

          本文链接:https://www.haomeiwen.com/subject/jhkbyftx.html