美文网首页
Spark编译

Spark编译

作者: 奉先 | 来源:发表于2018-01-27 14:33 被阅读21次

1. 选择spark版本

在生产环境中,使用的spark安装文件都是自编译的,所以必须自己编译源码。首先,确认要使用的spark版本,这里,我选择spark 1.6.1 ,到官网(http://spark.apache.org/downloads.html)下载对应版本的source code。

选择某版本源码

2.编译方法:

编译源码参考官方文档(http://spark.apache.org/docs/1.6.1/),注意需要选择对应spark版本文档。在对应版本文档中,找到相应的编译文档:

编译help文档
编译时,需要根据我们已经安装hadoop版本来确定参数,我是用的版本是:hadoop-2.5.0-cdh5.3.6

编译代码:

./make-distribution.sh --tgz  -Phadoop-2.4 -Dhadoop.version=2.5.0-cdh5.3.6 -Phive -Phive-thriftserver -Pyarn

cd 到spark源码目录,修改脚本:make-distribution.sh,如下部分需要修改:

VERSION=$("$MVN" help:evaluate -Dexpression=project.version $@ 2>/dev/null | grep -v "INFO" | tail -n 1)
SCALA_VERSION=$("$MVN" help:evaluate -Dexpression=scala.binary.version $@ 2>/dev/null\
    | grep -v "INFO"\
    | tail -n 1)
SPARK_HADOOP_VERSION=$("$MVN" help:evaluate -Dexpression=hadoop.version $@ 2>/dev/null\
    | grep -v "INFO"\
    | tail -n 1)
SPARK_HIVE=$("$MVN" help:evaluate -Dexpression=project.activeProfiles -pl sql/hive $@ 2>/dev/null\
    | grep -v "INFO"\
    | fgrep --count "<id>hive</id>";\
    # Reset exit status to 0, otherwise the script stops here if the last grep finds nothing\
    # because we use "set -o pipefail"
    echo -n)

改为:

VERSION=1.6.1
SCALA_VERSION=2.10.4
SPARK_HADOOP_VERSION=2.5.0-cdh5.3.6
SPARK_HIVE=1

spark版本、scala版本、spark使用hadoop版本、是否支持hive(1为支持)

相关文章

  • Spark Streaming实时流处理-2. Spark实战环

    0. 目录 Spark源码编译 Spark环境搭建 Spark简单使用 1. Spark源码编译 http://s...

  • Spark On Hive 部署和配置

    Spark On Hive,通过spark sql模块访问和使用Hive,默认Spark预编译(pre-built...

  • Spark3源码在IDEA中的编译

    Spark3源码编译 之前可以在linux环境进行spark源码的修改和编译,没有在笔记本上走通过编译流程,今天使...

  • 源码编译搭建Spark3.x环境

    Spark源码编译 官方文档: https://spark.apache.org/docs/latest/buil...

  • 编译Spark源码支持Hive并部署

    1、Spark源码下载 Spark官网提供了预编译版本的Spark,但是要获得hive支持的Spark版本必须自己...

  • Spark 编译

    选择的最新版的Spark,目前是2.3.0。编译Spark源码,使用自己安装的maven进行编译,其中-T参数是设...

  • 【Spark】Spark 编译调试

    自动补全CLASSPATH 参数:export SPARK_PREPEND_CLASSES=1在编译完Spark源...

  • spark编译

    背景   通常来讲,spark的使用离不开hadoop生态,在spark的官网中已经有针对hadoop通用版本(比...

  • Spark编译

    一、所需环境 1、CentOS 6.52、jdk1.8.0_4.53、maven 3.3.94、scala 2.1...

  • Spark编译

    Spark编译有三种方式:SBT(Simple Build Tool),Maven,Make-distribut...

网友评论

      本文标题:Spark编译

      本文链接:https://www.haomeiwen.com/subject/dbpnaxtx.html