美文网首页
Spark的安装

Spark的安装

作者: Davidham3 | 来源:发表于2017-09-14 17:13 被阅读164次

安装spark前先安装scala
然后下载spark-1.6.3-bin-without-hadoop.tgz
解压到/usr/local/spark-1.6.3-bin-without-hadoop
配置环境变量
sudo nano /etc/profile
添加以下内容:

export SPARK_HOME=/usr/local/spark-1.6.3-bin-without-hadoop
export PATH=$SPARK_HOME/bin:$PATH

复制conf文件夹里面template一份,改名为spark-env.sh,在这里修改spark集群的参数
cp conf/spark-env.sh.template conf/spark-env.sh
最下面加入以下几行

export JAVA_HOME=/usr/local/jdk1.7.0_80
export SCALA_HOME=/usr/local/scala-2.11.11
export SPARK_MASTER_IP=master1
export HADOOP_CONF_DIR=/usr/local/hadoop-2.6.5/etc/Hadoop
export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop-2.6.5/bin/Hadoop classpath)

export SPARK_MASTER_PORT=7077
export SPARK_WORKER_CORES=10
export SPARK_WORKER_MEMORY=10g
export SPARK_WORKER_INSTANCES=1
export SPARK_EXECUTOR_CORES=5
export SPARK_EXECUTOR_MEMORY=7g
export SPARK_EXECUTOR_INSTANCES=2
export SPARK_DRIVER_MEMORY=4g
export SPARK_WORKER_DIR=/usr/local/spark-1.6.3-bin-without-hadoop/worker_dir

在conf下面新建一个叫slaves的文件,这个文件里存放的是spark集群子节点的hostname
添加以下几行

master1
master2
slave1
slave2
slave3

修改spark文件夹的权限

sudo chown –R hadoop-sna /usr/local/spark-1.6.3-bin-without-hadoop
sudo chgrp –R hadoop-sna /usr/local/spark-1.6.3-bin-without-hadoop

在所有的节点(slaves和主节点)上都按以上操作,
然后使用sbin目录下的start-master.sh启动主节点,使用start-slaves.sh启动子节点

相关文章

  • spark安装与部署

    spark安装与部署 spark概述 spark平台结构spark统一栈 spark官网 spark的安装,配置,...

  • spark配置安装

    spark配置 一. Scala安装 二. spark安装 启动spark服务:

  • spark配置

    spark配置 一. Scala安装 二. spark安装 启动spark服务: 运行模式 本机模式./spark...

  • windows下安装spark

    1、安装jdk 2、安装scala 3、下载spark spark下载地址 3.1安装spark 将下载的文件解压...

  • Spark的安装与集群配置

    一、spark的安装 Spark安装包下载地址:http://spark.apache.org/downloads...

  • Spark入门——Python

    一.安装spark 安装可参照厦门大学数据实验室出的安装教程--Spark快速入门指南 - Spark安装与基础使...

  • Linux下搭建Spark 的 Python 编程环境

    Spark编程环境 Spark 可以独立安装使用,也可以和Hadoop 一起安装使用。在安装 Spark 之前,首...

  • 3.如何安装Apache Spark

    如何安装Apache Spark 1 Why Apache Spark2 关于Apache Spark3 如何安装...

  • Java-Spark系列9-Spark 运维管理

    备注:Cloudera 6.3.1Spark 2.4 一.Spark安装目录结构 Spark组件主要文件安装目录:...

  • hadoop+spark 整合

    zookeeper安装 zookeeper3.4.6安装 spark高可用安装完成 spark高可用安装 hado...

网友评论

      本文标题:Spark的安装

      本文链接:https://www.haomeiwen.com/subject/bridsxtx.html