之前安装好的集群已经可以正常使用,为了更好的使用spark,还需要配置一下spark的 环境变量,以及对评阅书park进行配置。
首先修改~/.bashrc

然后source ~/.bashrc
之后不需要在spark的安装目录便可以调用pyspark
配置好jupyter后,分布式运行pyspark 的jupyter 的命令
MASTER=spark://master:7077 pyspark
之前安装好的集群已经可以正常使用,为了更好的使用spark,还需要配置一下spark的 环境变量,以及对评阅书park进行配置。
首先修改~/.bashrc
然后source ~/.bashrc
之后不需要在spark的安装目录便可以调用pyspark
配置好jupyter后,分布式运行pyspark 的jupyter 的命令
MASTER=spark://master:7077 pyspark
本文标题:Hadoop与spark集群安装(二)
本文链接:https://www.haomeiwen.com/subject/zjajfltx.html
网友评论