美文网首页spark
Spark的这些事(四)——Spark on yarn 动态资源

Spark的这些事(四)——Spark on yarn 动态资源

作者: 数据社 | 来源:发表于2018-05-30 20:40 被阅读3次

    一、YARN的配置
    首先需要对YARN进行配置,使其支持Spark的Shuffle Service。

    修改每台集群上的yarn-site.xml

     - 修改
    <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle,spark_shuffle</value>
    </property>
    
     - 增加
    <property>
    <name>yarn.nodemanager.aux-services.spark_shuffle.class</name>
    <value>org.apache.spark.network.yarn.YarnShuffleService</value>
    </property>
    <property>
    <name>spark.shuffle.service.port</name>
    <value>7337</value>
    </property>
    

    $SPARK_HOME/lib/spark-1.5.2-yarn-shuffle.jar拷贝到每台NodeManager的${HADOOP_HOME}/share/hadoop/yarn/lib/下。
    重启所有修改配置的节点。

    二、Spark的配置
    配置$SPARK_HOME/conf/spark-defaults.conf,增加以下参数:

    spark.shuffle.service.enabled true   //启用External shuffle Service服务
    spark.shuffle.service.port 7337 //Shuffle Service默认服务端口,必须和yarn-site中的一致
    spark.dynamicAllocation.enabled true  //开启动态资源分配
    spark.dynamicAllocation.minExecutors 1  //每个Application最小分配的executor数
    spark.dynamicAllocation.maxExecutors 30  //每个Application最大并发分配的executor数
    spark.dynamicAllocation.schedulerBacklogTimeout 1s 
    spark.dynamicAllocation.sustainedSchedulerBacklogTimeout 5s
    

    动态资源分配策略:
    开启动态分配策略后,application会在task因没有足够资源被挂起的时候去动态申请资源,这种情况意味着该application现有的executor无法满足所有task并行运行。spark一轮一轮的申请资源,当有task挂起或等待spark.dynamicAllocation.schedulerBacklogTimeout(默认1s)`时间的时候,会开始动态资源分配;之后会每隔spark.dynamicAllocation.sustainedSchedulerBacklogTimeout(默认1s)时间申请一次,直到申请到足够的资源。每次申请的资源量是指数增长的,即1,2,4,8等。
    之所以采用指数增长,出于两方面考虑:其一,开始申请的少是考虑到可能application会马上得到满足;其次要成倍增加,是为了防止application需要很多资源,而该方式可以在很少次数的申请之后得到满足。

    资源回收策略:
    当application的executor空闲时间超过spark.dynamicAllocation.executorIdleTimeout(默认60s)后,就会被回收。

    使用spark-sql On Yarn执行SQL,动态分配资源
    以yarn-client模式启动ThriftServer

    cd $SPARK_HOME/sbin/
    ./start-thriftserver.sh \
    --master yarn-client \
    --conf spark.driver.memory=10G \
    --conf spark.shuffle.service.enabled=true \
    --conf spark.dynamicAllocation.enabled=true \
    --conf spark.dynamicAllocation.minExecutors=1 \
    --conf spark.dynamicAllocation.maxExecutors=300 \
    --conf spark.dynamicAllocation.sustainedSchedulerBacklogTimeout=5s
    

    启动后,ThriftServer会在Yarn上作为一个长服务来运行:

    相关文章

      网友评论

        本文标题:Spark的这些事(四)——Spark on yarn 动态资源

        本文链接:https://www.haomeiwen.com/subject/axwxsftx.html