本文带读者从源码查看,分析Yarn模式下Client&Cluster模式的资源启动流程,分析Client&Cluster究竟有什么不一样
回顾
在xxxx中我们分析了Standalone模式下Master和Worker的启动流程。
![](https://img.haomeiwen.com/i2989357/568c8e51ac034195.png)
- Master负责集群总资源的管理,包括CPU、内存的分配以及所有Applications的管理、Cluster模式下还有所有的driver的管理。Master启动后会定时清理没有上报心跳的Worker
- Master启动后会向Master注册自己(RegisterWorker),将自己的CPU cores和内存大小上报给Master,并定时发送心跳,更新Master里面属于自己ID的时间戳
资源有了,接下来需要启动我们自己的Application。
SparkSubmit提交代码
![](https://img.haomeiwen.com/i2989357/a4ab2937fca5f1d4.png)
![](https://img.haomeiwen.com/i2989357/04c159af34277313.png)
通过分析spark-submit脚本,我们知道最终启动的是SparkSubmit类,接下来的调用流程如下所示。
![](https://img.haomeiwen.com/i2989357/d513d3f1266f86f7.png)
最终通过prepareSumitEnvironment解析出mainClass,最终在SparkApplication start方法中,通过反射调用MainClass的main方法,解析的MainClass如下
![](https://img.haomeiwen.com/i2989357/c339b8716e578afb.png)
Yarn Client 源码分析
由上可知,最终我们解析的是用户的Class,而最重要的类就是SparkContext,高版本是SparkSession,本质是将SparkContext作为SparkSession的成员变量。
Yarn Client 总架构
![](https://img.haomeiwen.com/i2989357/4153299bbf5d5fe7.png)
SparkSession
SparkSession将SparkContext作为的自己成员变量
![](https://img.haomeiwen.com/i2989357/ae20f057d816602a.png)
![](https://img.haomeiwen.com/i2989357/0f0ecac1c7e75e85.png)
SparkContext
createTaskScheduler
重点需要看createTaskScheduler方法,然后调用start
![](https://img.haomeiwen.com/i2989357/af3f969e671fdbd8.png)
TaskSchedulerImpl
这里会创建TaskSchedulerImpl和StandaloneSchedulerBackend,并通过initialize将StandaloneSchedulerBackend放入TaskSchedulerImpl中,结合上图,会调用StandaloneSchedulerBackend的start方法
![](https://img.haomeiwen.com/i2989357/23c2948bafac8eb3.png)
![](https://img.haomeiwen.com/i2989357/93df588db1c52d45.png)
![](https://img.haomeiwen.com/i2989357/6ff3bdeb5d077db5.png)
这里的cm(clusterManager)是 YarnClusterManager
,scheduler是YarnScheduler, backend是YarnClientSchedulerBackend
YarnClusterManager.initialize() 方法
YarnClusterManager继承TaskSchedulerImpl,
将Backend作为自己的成员变量,并通过schedulingMode创建调度是FIFOSchedulableBuilder还是FairSchedulableBuilder,这里是提交task的时候用到的调度方式
![](https://img.haomeiwen.com/i2989357/01fecbc4702cb420.png)
YarnClientSchedulerBackend
YarnClientSchedulerBackend继承YarnSchedulerBackend,YarnSchedulerBackend 继承CoarseGrainedSchedulerBackend
![](https://img.haomeiwen.com/i2989357/55d11d0ca85ea1ce.png)
start方法第一部分
首先调用super.start,查看super.start方法为CoarseGrainedSchedulerBackend的start方法
![](https://img.haomeiwen.com/i2989357/e98515b0763c1d35.png)
CoarseGrainedSchedulerBackend.start()
![](https://img.haomeiwen.com/i2989357/ddaf76befff23782.png)
这里调用了createDriverEndpointRef,可以看到关键词driver了,其实driver本质上的类是DriverEndpoint,结合Spark RPC框架,我们可以知道Driver的生命周期方法。
onStart() 和 receive
这里启动一个定时线程,定时给自己发送ReviveOffers,给自己发送case class ReviveOffers
![](https://img.haomeiwen.com/i2989357/24aeab1c2d5069db.png)
makeOffers
通过命名方式我们可以知道,这里是在获取可用的executors的资源,将task信息包装成taskDescs,在Executor上启动task
![](https://img.haomeiwen.com/i2989357/cd03e273591e23af.png)
将task序列化后发送给Executor,但是这里并未真正执行,因为还没有申请到Executor资源,所以onstart里的定时线程将会一直尝试执行,直到申请到executor,就会在上面launchTasks
![](https://img.haomeiwen.com/i2989357/9e3c3782b3d7f4c6.png)
Driver
本质上Driver是CoarseGrainedSchedulerBackend里的一个成员变量,负责序列化并通过RPC发送给有资源的Executor执行task,但是在这里并没有执行,因为还没有申请到执行资源Executor。接下来回到我们的YarnSchedulerBackend中
![](https://img.haomeiwen.com/i2989357/8d32a3a1849e8ddf.png)
start方法第二部分
第一部分调用了super.start我们知道了Driver的本质和职责接下来,看第二部分
![](https://img.haomeiwen.com/i2989357/b61dd79a144c36c0.png)
org.apache.spark.deploy.yarn.Client
Client中有一个yarnClient成员变量,与yarn集群做RPC通信,提交Application使用
![](https://img.haomeiwen.com/i2989357/a36e72a84dfecfff.png)
org.apache.spark.deploy.yarn.Client. submitApplication
![](https://img.haomeiwen.com/i2989357/f3991b5653f49bc0.png)
createContainerLaunchContext中会申请ApplicationMaster的启动信息,并指定启动类,
- cluster模式: org.apache.spark.deploy.yarn.ApplicationMaster
-
client模式:org.apache.spark.deploy.yarn.ExecutorLauncher
image.png
ExecutorLauncher
什么也没有做,就是调用了ApplicationMaster的main方法
![](https://img.haomeiwen.com/i2989357/2e291ea81912611b.png)
org.apache.spark.deploy.yarn.ApplicationMaster
会根据运行模式(client or cluster), 这里是client模式,所以执行runExecutorLauncher
![](https://img.haomeiwen.com/i2989357/1c534fdcb347a1c8.png)
![](https://img.haomeiwen.com/i2989357/44a2c7cc9fc8543c.png)
![](https://img.haomeiwen.com/i2989357/b755c5afea2f0045.png)
![](https://img.haomeiwen.com/i2989357/0db6d3c4c0b7a16d.png)
![](https://img.haomeiwen.com/i2989357/0028b15270681180.png)
通过ExecutorRunnable来启动Executor
![](https://img.haomeiwen.com/i2989357/2daac1131dcf1189.png)
ExecutorRunnable中有nmClient, 就是NodeManagerClient, 通过nmClient与NodeManager RPC通信, 启动Executor
![](https://img.haomeiwen.com/i2989357/78ed1a03e6d848a1.png)
prepareCommand会指定Executor所启动的类
![](https://img.haomeiwen.com/i2989357/91df1737b59ea633.png)
这个类就是CoarseGrainedExecutorBackend, 并且会传入driver url,
![](https://img.haomeiwen.com/i2989357/5c93d604e454dae5.png)
Executor 启动
CoarseGrainedExecutorBackend也是一个EndPoint,所以也会走RPC的生命周期方法,一个很重要的点是,Client -> Master->Worker ->Executor将driverUrl的信息传递给Executor,Executor启动后根据driverUrl向driverUrl反向注册自己
![](https://img.haomeiwen.com/i2989357/de69edffc1a079c4.png)
Driver接收到Executor注册后,运算资源已经有了,DriverEndpoint里的开始调度,如果有Task,就开始LaunchTask,到此,Spark On Yarn Client源码分析完毕
![](https://img.haomeiwen.com/i2989357/9f10f9746cf30302.png)
接下来分析 Yarn Cluster模式
Yarn Cluster 总架构
Cluster与Client不同的是,Client的Driver(分配Task)和ApplicationMaster(申请资源)是不在同一个进程里面的,Cluster模式的Driver(分配Task)和ApplicationMaster(申请资源)不同一个进程里
![](https://img.haomeiwen.com/i2989357/6aec22fb4789319b.png)
由SparkSubmit图我们可以知道,Cluster模式里,启动的是YarnClusterApplication
YarnClusterApplication
![](https://img.haomeiwen.com/i2989357/539bd9c651b7cf01.png)
org.apache.spark.deploy.yarn.Client
这个是和 client 模式中使用同样的Client类,不同的是,cluster启动的是org.apache.spark.deploy.yarn.ApplicationMaster, 前面我们分析知道client模式中org.apache.spark.deploy.yarn.ExecutorLauncher 其实就是调用了ApplicationMaster.main(), 还有一点是cluster模式中,需要启动driver
![](https://img.haomeiwen.com/i2989357/ee2663239907218f.png)
ApplicationMaster
![](https://img.haomeiwen.com/i2989357/fbfbf7939011e10c.png)
runDriver
在ApplicationMaster进程中,通过反射调用userClass, userClass中就会启动SparkSession, SparkContext等.
![](https://img.haomeiwen.com/i2989357/b9d23ad7c38fb59c.png)
![](https://img.haomeiwen.com/i2989357/5c9e61c4a26caa55.png)
分析源码可以得到下面这个图,本质上还是用的CoarseGrainedExecutorBackend里的driver
![](https://img.haomeiwen.com/i2989357/26b2feb31c761c65.png)
ApplicationMaster里的资源申请(启动Executor)
逻辑和client分析过程一样的,就是通过ExecutorRunnable启动CoarseGrainedExecutorBackend
![](https://img.haomeiwen.com/i2989357/dc497b60436f6e29.png)
Yarn Cluster 总架构
![](https://img.haomeiwen.com/i2989357/035c66e6a55f87e9.png)
总结
本文从源码,分析Yarn模式下Client&Cluster模式的资源启动流程,分析Client&Cluster究竟有什么不一样,本质的不一样就是Driver和ApplicationMaster在不在同一进程里。
本文如果有错误的地方,欢迎指出。
网友评论