美文网首页
spark完全分布式集群搭建

spark完全分布式集群搭建

作者: 小月半会飞 | 来源:发表于2019-03-01 11:13 被阅读0次

第一步:先将单机版安装好

步骤参照:centos spark单机版伪分布式
https://www.jianshu.com/p/40c2a7cd6486

第二步:配置spark-env.sh

# 如果说你的spark就读取本地文件,也不需要yarn管理,不用配
export HADOOP_CONF_DIR=/opt/modules/app/hadoop/etc/hadoop

第三步:配置slaves

添加worker主机列表

hadoop4
hadoop5

第四步:将scala和spark安装包发送给其他节点

在/opt/modules/app目录下运行以下命令

src -r ./scala hadoop4:/opt/modules/app/
spc -r ./scala hadoop5:/opt/modules/app/
src -r ./spark hadoop4:/opt/modules/app/
spc -r ./spark hadoop5:/opt/modules/app/

第五步:配置worker主机的profile

由于每一台安装位置都是一样的,所以我直接将master的profile复制到worker主机
在etc目录下操作

src -r ./profile hadoop4:/etc/
spc -r ./profile hadoop5:/etc/

第六步:开启spark集群

开启spark集群之前现开启hadoop集群

start-dfs.sh

开启spark集群

spark-start-all.sh

spark完全分布式集群搭建完毕

相关文章

网友评论

      本文标题:spark完全分布式集群搭建

      本文链接:https://www.haomeiwen.com/subject/sohfuqtx.html