运行 spark on k8s

作者: morphtin | 来源:发表于2018-12-21 15:03 被阅读3次

    首先 已有一个1.8的k8s集群 我的是CentOS7

    下载spark 2.4.0 - https://www.apache.org/dyn/closer.lua/spark/spark-2.4.0/spark-2.4.0-bin-hadoop2.7.tgz

    wget 下载地址

    tar -xzvf 压缩包名

    How it works?

    然后参考官方文档 - http://spark.apache.org/docs/2.4.0/running-on-kubernetes.html#running-spark-on-kubernetes   注意里面的prerequisites

    此处我们尝试 spark on k8s 的 cluster mode

    首先 

    $ docker login

    登陆注册过的dockerhub账户

    然后在spark解压的目录下,打包和发布docker 镜像

    $ ./bin/docker-image-tool.sh -r <repo> -t my-tag build  

    $ ./bin/docker-image-tool.sh -r <repo> -t my-tag push

    <repo>我用的是docker id   my-tag就是个tag名

    之后可发现dockerhub里多了几个镜像

    查看我发布的spark镜像

    可以 docker pull morphtin/spark:sparkonk8s 下载我的镜像


    To launch Spark Pi in cluster mode,

    进入spark目录下,

    $ bin/spark-submit \

        --master k8s://https://<k8s-apiserver-host>:<k8s-apiserver-port> \

        --deploy-mode cluster \

        --name spark-pi \

        --class org.apache.spark.examples.SparkPi \

        --conf spark.executor.instances=5 \

        --conf spark.kubernetes.container.image=<spark-image> \

        local:///path/to/examples.jar

    可通过以下命令查看apiserver的url

    $ kubectl cluster-info

        Kubernetes master is running at http://x.x.x.x:xxxx

    此处我的是  k8s://http://localhost:8080

    <spark-image>是运行的镜像  此处我用的是 morphtin/spark:sparkonk8s 与dockerhub一致

    查看spark-submit 详解

    客户端模式运行spark详见官方文档

    相关文章

      网友评论

        本文标题:运行 spark on k8s

        本文链接:https://www.haomeiwen.com/subject/frtmkqtx.html