美文网首页
Spark分布式大数据分析平台安装与配置

Spark分布式大数据分析平台安装与配置

作者: 谖瓞 | 来源:发表于2019-03-15 11:28 被阅读0次

大数据分析方法与应用 课程实验一

1.实验目的

  通过本实验,搭建基于 spark 的大数据分析与设计平台,为(可能的)后续的大数据实验做准备。能够在 Linux 操作系统下 pyspark 交互式方式下运行 python spark 语句。能够使用 spark-submit 提交数据处理任务。

2.实验步骤

第 0 步,准备工作

0.1 准备 Linux 操作系统,Ubuntu 16.04

  本次采用阿里云平台轻量应用服务器作为搭建平台,安装的操作系统为 Ubuntu 16.04,以下操作均通过 Xshell 连接服务器完成,由于以 root 账户登录,下述命令不再以 sudo 命令开始。

0.2 安装 JDK1.8

  • 首先添加源
apt install software-properties-common
apt-get install python-software-properties
add-apt-repository ppa:webupd8team/java
  • 更新 source
apt-get update
  • 安装 JDK
apt-get install oracle-java8-installer
  • 配置环境变量
    虽然安装完成后已经可以执行 java 命令,但最好还是配置一下环境变量:
echo '#set oracle jdk environment' >> /root/.bashrc
echo 'export JAVA_HOME="/usr/lib/jvm/java-8-oracle"' >> /root/.bashrc
echo 'export JRE_HOME="${JAVA_HOME}/jre"' >> /root/.bashrc
echo 'export CLASSPATH=".:${JAVA_HOME}/lib:${JRE_HOME}/lib"' >> /root/.bashrc
echo 'export PATH="${JAVA_HOME}/bin:$PATH"' >> /root/.bashrc
source /root/.bashrc
Java8 安装完成

0.3 安装 Anaconda

  本次安装的版本为 Anaconda3-2018.12-Linux-x86_64.sh

  • 首先下载 anaconda
wget https://repo.continuum.io/archive/Anaconda3-2018.12-Linux-x86_64.sh
  • 安装 anaconda
bash Anaconda3-2018.12-Linux-x86_64.sh

  期间按 Enter 键阅读协议,同意协议后才能正常安装。可执行以下命令配置 conda 环境变量(请自行替换 anaconda 路径):

echo 'export PATH="/root/anaconda3/bin:$PATH"' >> /root/.bashrc
source ~/.bashrc

  输入conda -V 可查看 conda 版本,输入conda upgrade --all 可更新 conda版本。

Anaconda 安装完成

0.4 安装 PySpark

  安装 PySpark 可采取多种方式,

  1. 使用 pip 进行安装,执行以下命令,即可完成安装:pip install pyspark

    PySpark 安装完成
  2. 官网下载官方包手动解压安装的方式:

wget http://apache.stu.edu.tw/spark/spark-2.4.0/spark-2.4.0-bin-hadoop2.7.tgz
  • 然后解压、安装
    1. 首先解压缩
    tar -zxvf spark-2.4.0-bin-hadoop2.7.tgz
    
    1. 移动到账户文件夹下(可选)
    mv spark-2.4.0-bin-hadoop2.7 /opt/spark
    
    1. 配置环境变量
    echo '#spark' >> /root/.bashrc
    echo 'export SPARK_HOME="/opt/spark"' >> /root/.bashrc
    echo 'export PATH="$PATH:${SPARK_HOME}/bin:${SPARK_HOME}/sbin"' >> /root/.bashrc
    source /root/.bashrc
    
      创建 spark-env.sh 文件
    cp /opt/spark/conf/spark-env.sh.template /opt/spark/conf/spark-env.sh
    
      在里面写入:
    JAVA_HOME=/usr/lib/jvm/jdk1.8.0_181
    SPARK_WORKER_MEMORY=1g
    
      使用内存大小根据机器配置自行选择。
    1. 问题解决
        在服务器端无论使用 pip 还是手动安装,在启动时收获一个异常:
      Exception: Java gateway process exited before sending its port number
      对于该异常目前搜遍了谷歌百度尚无较好的解决方案,已解决,请参看Exception: Java gateway process exited before sending its port number 解决方案

0.5 配置 PySpark

  • 第1步 配置 Spark standalone 模式

    • 1.1 运行 pyspark
    • 1.2 执行以下代码
    textFile = spark.read.text("/opt/spark/README.md")
    textFile.count()
    

    输出结果为 105

  • 第2步 配置 singlenode cluster 模式

    • 2.1 配置 conf/slaves 文件,增加 localhost
    cp /opt/spark/conf/slaves.template /opt/spark/conf/slaves
    

    在文件内增加一行 localhost

    slaves
    • 2.2 执行sbin/start-master.sh 查看 http://服务器 ip:8080
start-master
  • 2.3 sbin/start-slaves.sh spark://127.0.0.1:7077 查看 http://服务器 ip:8080

    workers
  • 2.4 运行 /bin/pyspark --master spark://127.0.0.1:7077

    pyspark master
  • 2.5(退出上一步的交互式环境)运行Spark例子:

./bin/spark-submit  --master spark://127.0.0.1:7077 ./examples/src/main/python/pi.py 1000

  查看 http://服务器 ip:8080 中的信息

spark-submit
  • 第3步 愉快的开始spark Python编程

相关文章

网友评论

      本文标题:Spark分布式大数据分析平台安装与配置

      本文链接:https://www.haomeiwen.com/subject/oqjqmqtx.html