美文网首页
spark启动

spark启动

作者: 博瑜 | 来源:发表于2017-06-28 10:15 被阅读0次

spark启动流程

sbin/start-all.sh -> start-master.sh -> start-slaves.sh

sbin/start-master.sh -> 先读取变量 sbin/spark-daemon.sh start org.apache.spark.deploy.master.Master 1 --ip $SPARK_MASTER_IP --port $SPARK_MASTER_PORT --webui-port $SPARK_MASTER_WEBUI_PORT

sbin/spark-daemon.sh -> /bin/spark-class $command "$@"

/bin/spark-class -> exec "$RUNNER" -cp "$CLASSPATH" $JAVA_OPTS "$@"


spark提交任务过程

bin/spark-submit --class cn.itcast.spark.WordCount --master spark://node-1.itcast.cn:7077 --executor-memory 2g --total-executor-cores 4

exec "$SPARK_HOME"/bin/spark-class org.apache.spark.deploy.SparkSubmit -> exec "$RUNNER" -cp "$CLASSPATH" $JAVA_OPTS "$@"

重点看spark-class org.apache.spark.deploy.SparkSubmit ->submit -> doRunMain (args->class cn.itcast.spark.WordCount …)
class.forname 在自己进程里反射
--> Class.forName通过反射调用自定义类的main方法(只有一个进程)

sparkcontext运行在sparksubmit(driver)进程中,然后与master建立连接,以后要rpc通信

创建DAGScheduler->TaskScheduler

New sparkcontext ->调用主构造器->1.创建aparkEnv(创建actorsystem)2.创建taskscheduler->create dagscheduler->start tasksceduler

相关文章

  • Spark-shell&Scala(一)

    Spark-shell启动与退出 启动在spark的bin目录中启动: ./spark-shell 进入spark...

  • Spark常用命令

    启动Spark命令 首先启动Hadoop:start-all.sh 启动master:进入spark安装目录: ....

  • Ambari安装hadoop遇到的问题(二)

    5、启动spark,Spark Thrift Server启动失败,抛出异常 问题7:jvm启动失败 ,报-Xlo...

  • spark配置安装

    spark配置 一. Scala安装 二. spark安装 启动spark服务:

  • spark配置

    spark配置 一. Scala安装 二. spark安装 启动spark服务: 运行模式 本机模式./spark...

  • Spark 独立模式

    将Spark Standalone安装到群集 手动启动群集 群集启动脚本 将应用程序连接到群集 启动Spark应用...

  • Spark core篇 Rpc源码1

    记上篇Spark源码Master Worker启动消息通信描述了Spark Master和Worker启动的流程,...

  • Spark SQL ThriftServer

    Spark SQL ThriftServer 启动命令 默认情况下,Spark 日志目录 SPARK_LOG_DI...

  • SparkSQL简介

    一、 如何运行Spark SQL 查询 1.1、Spark SQL CLI 要启动Spark SQL CLI ,请...

  • Spark SQL WebUI监控,查看SQL执行计划

    摘要:Spark SQL 启动Spark SQL应用 跟踪日志到Spark WebUI的链接tracking UR...

网友评论

      本文标题:spark启动

      本文链接:https://www.haomeiwen.com/subject/lkzycxtx.html