使用Docker快速搭建Spark集群。
创建Spark集群
-
首先在命令行下载该项目:
git clone https://github.com/gettyimages/docker-spark.git
-
在该目录下,输入
compose up
:- image-20181103161607705
- 等待安装,最后会提示Worker和master都准备好了:
- image-20181103164306737
- 在浏览器中输入
localhost:8080
,出现如下界面,说明配置成功:- image-20181103164209061
- 我们可以使用
docker ps -a
命令查看当前运行的容器:- image-20181103164801925
集群使用与作业提交
集群使用
- 首先进入master的容器:
docker exec -it docker-spark_master_1 /bin/bash
- 注意,使用
exec
命令进入容器时,在命令行输入exit
不会退出容器,使用attach
命令再次进入 - image-20181103165057661
- 查看Spark和Hadoop的版本:
-
hadoop version
- image-20181103165310600
-
spark shell
- image-20181103165436488
- 使用
:quit
退出spark-shell。 - 同样也可以查看python的版本,为3.5.3,已经很新了。
-
作业提交
- 在配置
docker compose
时,我们已经将本地文件./data
挂载到容器中的/tmp/data
下,因此,我们可以先在本地文件中放入需要文件,这里我放入了kmeans的文件:- image-20181103172448920
- 在master节点中查看该文件:
- image-20181103172541513
- 这已经映射到了hdfs上,我们可以使用
hdfs dfs -cat
命令查看:- image-20181103172841438
- 这样,我们就可以使用
spark-submit
运行我们的程序 - 在浏览器中查看运行的程序:
- image-20181103173314647
网友评论