美文网首页
单机版spark搭建

单机版spark搭建

作者: 程序媛啊 | 来源:发表于2018-04-25 23:00 被阅读0次

    一. 安装JDK,可参考:Linux(CentOs7)安装OpenJDK1.8

    二. 安装spark。

    说明:安装单机版spark只需要安装jdk和spark就可以了,因为spark内置的有scala,可不单独安装spark依赖的scala。这是网上的说法,我因为安装了scala就没有再去卸载。

    2.1 到spark官网下载Spark压缩包及解压:

    官网下载地址:http://spark.apache.org/downloads.html

    2.2上传到Linux

    2.3 解压tar包

    命令:
    tar   -zxvf  spark-2.3.1-bin-hadoop2.7.tgz
    

    2.4 重命名:

    mv spark-2.3.1-bin-hadoop2.7 spark
    

    2.5 配置环境变量

    vim ~/.bash_profile 
    然后在文件的最后加上如下配置:
    #Spark
    export SPARK_HOME=/opt/spark
    export PATH=$PATH:$SPARK_HOME/bin
    source ~/.bash_profile 
    

    2.6 修改配置文件

    spark-env.sh文件:
    # 进入spark的conf目录下:
    cd  /opt/spark/conf/
    #copy一份spark-env.sh:
    cp  spark-env.sh.template spark-env.sh
    #然后进入vim编辑模式:
    vim  spark-env.sh
    #在文件的最后加上如下配置:
    export JAVA_HOME=/usr/lib/jvm/java18   #这里是你jdk的安装路径
    export SPARK_HOME=/opt/spark
    export SPARK_MASTER_IP=192.168.1.116  #将这里的IP改为自己的
    export SPARK_MASTER_PORT=7077 # 默认端口为7077,可以修改 
    export SPARK_MASTER_WEBUI_PORT=7070  #访问spark web的端口,默认为7070,可以修改改
    
    slaves文件:
     #进入spark的conf目录下:
    cd  /opt/spark/conf/
    #copy一份slaves:
    cp  slaves.template slaves
    #然后进入vim编辑模式:
    vim  slaves
    #在文件的最后加上如下配置:
    192.168.1.116 #这里是本机的IP
    

    三. 启动spark。

    #进入spark的sbin目录:
    cd  sbin/
    #启动spark集群(单机版): 
    ./start-all.sh #可能会会要求你输入linux的登录密码
    
    启动后使用jps命令可看到运行的master和worker进程,至此,单机版spark的搭建完成

    四、访问spark web ui

    http://192.168.1.116:7070

    原文地址:https://blog.csdn.net/yzh_1346983557/article/details/81624708

    相关文章

      网友评论

          本文标题:单机版spark搭建

          本文链接:https://www.haomeiwen.com/subject/vcuulftx.html