spark集群(standalone 模式)启动

作者: 良人与我 | 来源:发表于2018-12-10 22:17 被阅读3次

spark的集群配置

这里我们介绍 standalone 模式环境搭建
首先在所有的节点上安装spark

参考文章安装 spark
https://www.jianshu.com/p/b0d88e5dd503

到 spark的conf的目录下,查看配置文件

[river@s201 spark]$ cd /soft/spark/conf/
[river@s201 conf]$ ll
total 36
-rw-r--r--. 1 river river  996 Oct 29 14:36 docker.properties.template
-rw-r--r--. 1 river river 1105 Oct 29 14:36 fairscheduler.xml.template
-rw-r--r--. 1 river river 2025 Oct 29 14:36 log4j.properties.template
-rw-r--r--. 1 river river 7801 Oct 29 14:36 metrics.properties.template
-rw-r--r--. 1 river river  865 Oct 29 14:36 slaves.template
-rw-r--r--. 1 river river 1292 Oct 29 14:36 spark-defaults.conf.template
-rwxr-xr-x. 1 river river 4221 Oct 29 14:36 spark-env.sh.template
[river@s201 conf]$ 

配置master节点的slaves
修改 该目录下 slaves.template 文件为 slaves

mv slaves.template slaves

编辑slaves 文件
添加从节点主机名

s202
s203
s204

我的hosts 配置如下

[river@s201 conf]$ cat /etc/hosts
127.0.0.1 localhost
192.168.172.201 s201
192.168.172.202 s202
192.168.172.203 s203
192.168.172.204 s204

同步slaves 文件到从节点

[river@s201 conf]$ scp slaves river@s202:/soft/spark/conf/  
slaves                                                                         100%  871   736.9KB/s   00:00    
[river@s201 conf]$ scp slaves river@s203:/soft/spark/conf/
slaves                                                                         100%  871   535.0KB/s   00:00    
[river@s201 conf]$ scp slaves river@s204:/soft/spark/conf/
slaves                                                                         100%  871   530.9KB/s   00:00    
[river@s201 conf]$ 

接下来启动spark集群

[river@s201 conf]$ /soft/spark/sbin/start-all.sh 
starting org.apache.spark.deploy.master.Master, logging to /soft/spark/logs/spark-river-org.apache.spark.deploy.master.Master-1-s201.out
s204: starting org.apache.spark.deploy.worker.Worker, logging to /soft/spark/logs/spark-river-org.apache.spark.deploy.worker.Worker-1-s204.out
s202: starting org.apache.spark.deploy.worker.Worker, logging to /soft/spark/logs/spark-river-org.apache.spark.deploy.worker.Worker-1-s202.out
s203: starting org.apache.spark.deploy.worker.Worker, logging to /soft/spark/logs/spark-river-org.apache.spark.deploy.worker.Worker-1-s203.out
s201: starting org.apache.spark.deploy.worker.Worker, logging to /soft/spark/logs/spark-river-org.apache.spark.deploy.worker.Worker-1-s201.out

通过jps 查看 进程

[river@s201 conf]$ jps
66208 Jps
2148 SecondaryNameNode
2310 ResourceManager
1943 NameNode
66072 Master
66156 Worker

[river@s202 soft]$ jps
1781 DataNode
49061 Jps
48987 Worker
1902 NodeManager

可以看到 主节点上已经有 master 和 worker了,从节点也有了 worker
说明已经启动成功了

我们再登录到web来看看集群状况

访问
http://s201:8080/

可以看到节点都已经正常运行了


image.png

感谢你的阅读,喜欢的话请点赞哦。

相关文章

  • spark 相关总结

    spark 部署有几种模式spark 可分为单机模式和集群模式集群模式又可分为standalone独立集群模式,y...

  • spark集群(standalone 模式)启动

    spark的集群配置 这里我们介绍 standalone 模式环境搭建首先在所有的节点上安装spark 参考文章安...

  • Spark-Standalone模式

    Standalone模式:只使用Spark自身节点运行的集群模式,也就是所谓的独立部署Standalone模式。 ...

  • Spark的独立集群模式部署

    spark的独立集群(standalon)模式很容易上手,文档在:Spark Standalone Mode。 本...

  • Spark运行模式之Standalone模式

    Standalone模式 概述 构建一个由Master+Slave构成的Spark集群,Spark运行在集群中 安...

  • 3.spark运行模式

    spark支持的运行模式:本地模式、本地集群模式、standalone模式、yarn模式及mesos模式。 本地模...

  • nacos单机和集群模式

    单机模式启动startup.cmd -m standalone 集群模式启动配置集群文件conf目录下新建clus...

  • Spark开发--Standalone模式

    一、Standalone模式   Spark可以通过部署与Yarn的架构类似的框架来提供自己的集群模式,该集群模式...

  • Spark内核分析之Spark的HA源码分析

    Spark作业运行的集群环境有两种,分别基于standalone模式和Yarn集群模式。我们知道Yarn集群提供了...

  • Spark-部署模式

    Spark部署模式 Spark支持三种集群管理器(Cluster Manager),分别为: Standalone...

网友评论

    本文标题:spark集群(standalone 模式)启动

    本文链接:https://www.haomeiwen.com/subject/bkadhqtx.html