美文网首页
Hadoop与spark集群安装(二)

Hadoop与spark集群安装(二)

作者: 术枚派 | 来源:发表于2021-02-23 11:28 被阅读0次

之前安装好的集群已经可以正常使用,为了更好的使用spark,还需要配置一下spark的 环境变量,以及对评阅书park进行配置。

首先修改~/.bashrc

然后source ~/.bashrc

之后不需要在spark的安装目录便可以调用pyspark

配置好jupyter后,分布式运行pyspark 的jupyter 的命令

MASTER=spark://master:7077 pyspark

相关文章

网友评论

      本文标题:Hadoop与spark集群安装(二)

      本文链接:https://www.haomeiwen.com/subject/zjajfltx.html