线上存在两套yarn集群,现在需要将spark应用从集群1提交至集群2上面运行
在spark-env.sh中增加export HADOOP_CONF_DIR= 增加目标集群hadoop配置目录
本文标题:Spark跨集群提交
本文链接:https://www.haomeiwen.com/subject/qavhlqtx.html
网友评论