美文网首页Spark在简书spark大数据
Windows下从源代码构建Spark

Windows下从源代码构建Spark

作者: 帮我想变量名 | 来源:发表于2015-11-19 14:53 被阅读4088次

    综述

    其实Spark的构建已经做得很好了,但是由于大家已知的原因,很多东西不能很顺利的拿到。估计你要给老外说花了很多时间在build Spark上面,他只有一个反应“unbelievable”。

    在这里特别要感谢一下OSChina,它的Maven库的存在,使得在国内从源代码构建Spark成为可能。

    没想到OS China 关闭了了,但是Ali又站了出来。为阿里点个赞!

    如果碰到什么问题的话,是这篇文章没有覆盖到的话,请大家给我简信或者留言。我会尽自己所能给大家解决。

    下面开始言归正传。

    1,所需软件

    下面的软件安装完成之后,都确保路径添加到系统环境变量PATH里面去了。

    检查方法:设置好之后,启动windows cmd, 敲入命令,看看能不能找到。
    Scala: scala -version
    SBT: sbt -version
    Maven: mvn -version
    Git: git --version

    • Scala
      最新的版本是2.11.7,我下载的是2.10.6. Spark 最新的稳定版1.5.2使用的是Scala 2.10

    • Java
      本文中使用的是Java SE 7u 79,也就是大家“1.7”。

    • SBT
      Spark 用Maven和SBT都可以编译。个人建议:在IDE里面,还是使用SBT比较好。

    • Maven
      SBT可以重用Maven的依赖库。我们使用Maven,可以方便地从OSChina下载Spark需要的相关依赖。
      在Maven的安装目录之下,conf文件下面有个settings.xml文件,备份一下这个文件,然后对着下面进行修改。修改的主要目的是添加OSChina的镜像进来。
      <mirrors>
      <mirror>
      <id>nexus-osc</id>
      <mirrorOf>central</mirrorOf>
      <name>Nexus osc</name>
      <url>http://maven.aliyun.com/nexus/content/groups/public/</url>
      </mirror>
      </mirrors>

    • Git
      Git可以用来下载Spark源代码,在用SBT或者Maven编译的过程中,也需要Git去从Github下载一些依赖的东西。

    • Intellij IDEA
      一般简称为IDEA,本文中使用的是最新的15.0.1。作为一个商业软件,它很有良心的推出了完全免费的Community Edition版本,完全可以满足我们的需求。

    关于IDE的选择,一开始我使用的Scala-IDE,占用内存太多。设置了两个断点就慢的不行,基本没有办法单步调试。
    尝试IDEA之后,毫不犹豫地抛弃了Scala-IDE.
    IDEA优点如下:

    • 界面更精简
    • 运行期间占用内存小
    • 切换到SBT之后,编译速度快。
    • 支持更好。毕竟是商业软件,一般问题都可以从官方的网站,论坛里面找到解决方案。

    本文中使用的具体版本:

      C:\Users\spark>scala -version
       Scala code runner version 2.10.6 -- Copyright 2002-2013, LAMP/EPFL
    
      C:\Users\spark>java -version
      java version "1.7.0_79"
      Java(TM) SE Runtime Environment (build 1.7.0_79-b15)
      Java HotSpot(TM) 64-Bit Server VM (build 24.79-b02, mixed mode)
    
      C:\Users\spark>sbt -version
      [info] Set current project to km (in build file:/C:/Work/Code/ACE/3.0/km/)
      [warn] The `-` command is deprecated in favor of `onFailure` and will be removed in 0.14.0
    
      C:\Users\spark>mvn -version
      Apache Maven 3.3.3 (7994120775791599e205a5524ec3e0dfe41d4a06; 2015-04-22T19:57:37+08:00)
      Maven home: C:\Program Files\apache-maven-3.3.3\bin\..
      Java version: 1.7.0_79, vendor: Oracle Corporation
      Java home: C:\Program Files\Java\jdk1.7.0_79\jre
      Default locale: en_US, platform encoding: GBK
      OS name: "windows 7", version: "6.1", arch: "amd64", family: "windows"
    
      C:\Users\spark>git --version
      git version 2.6.3.windows.1
    

    2,配置步骤

    2.1 使用git下载源代码

    # Master development branch
    git clone git://github.com/apache/spark.git
    
    # 1.5 maintenance branch with stability fixes on top of Spark 1.5.2(本文中使用的)
    git clone git://github.com/apache/spark.git -b branch-1.5
    

    2.2 利用Maven 编译Spark 源代码

    步骤如下:

    C:\Users\spark>set MAVEN_OPTS=-Xmx2g -XX:MaxPermSize=512M -XX:ReservedCodeCacheSize=512m
    C:\Users\spark>mvn -DskipTests clean package
    

    编译中需要下载很多东西,耐心等候。成功之后:

     [INFO] Spark Project Parent POM ........................... SUCCESS [ 29.999 s]
     [INFO] Spark Project Test Tags ............................ SUCCESS [ 19.688 s]
     [INFO] Spark Project Launcher ............................. SUCCESS [ 29.203 s]
     [INFO] Spark Project Networking ........................... SUCCESS [ 22.105 s]
     [INFO] Spark Project Shuffle Streaming Service ............ SUCCESS [ 13.525 s]
     [INFO] Spark Project Unsafe ............................... SUCCESS [ 37.206 s]
     [INFO] Spark Project Core ................................. SUCCESS [07:42 min]
     [INFO] Spark Project Bagel ................................ SUCCESS [ 18.502 s]
     [INFO] Spark Project GraphX ............................... SUCCESS [01:20 min]
     [INFO] Spark Project Streaming ............................ SUCCESS [02:38 min]
     [INFO] Spark Project Catalyst ............................. SUCCESS [04:11 min]
     [INFO] Spark Project SQL .................................. SUCCESS [04:59 min]
     [INFO] Spark Project ML Library ........................... SUCCESS [04:58 min]
     [INFO] Spark Project Tools ................................ SUCCESS [ 16.661 s]
     [INFO] Spark Project Hive ................................. SUCCESS [05:56 min]
     [INFO] Spark Project REPL ................................. SUCCESS [ 56.534 s]
     [INFO] Spark Project Assembly ............................. SUCCESS [02:35 min]
     [INFO] Spark Project External Twitter ..................... SUCCESS [ 34.803 s]
     [INFO] Spark Project External Flume Sink .................. SUCCESS [ 27.097 s]
     [INFO] Spark Project External Flume ....................... SUCCESS [ 40.341 s]
     [INFO] Spark Project External Flume Assembly .............. SUCCESS [  5.210 s]
     [INFO] Spark Project External MQTT ........................ SUCCESS [01:00 min]
     [INFO] Spark Project External MQTT Assembly ............... SUCCESS [ 29.437 s]
     [INFO] Spark Project External ZeroMQ ...................... SUCCESS [01:06 min]
     [INFO] Spark Project External Kafka ....................... SUCCESS [01:03 min]
     [INFO] Spark Project Examples ............................. SUCCESS [04:33 min]
     [INFO] Spark Project External Kafka Assembly .............. SUCCESS [ 11.513 s]
     [INFO] ------------------------------------------------------------------------
     [INFO] BUILD SUCCESS
     [INFO] ------------------------------------------------------------------------
     [INFO] Total time: 48:43 min
     [INFO] Finished at: 2015-11-18T14:04:25+08:00
     [INFO] Final Memory: 395M/1591M
     [INFO] ------------------------------------------------------------------------
    

    2.3 安装和配置IDEA

    安装好IDEA之后,还需要下面这些步骤。

    a 安装Scala插件。

    File-->Settings-->Plugins-->Install JetBrains plugin

    • 搜索scala,选择Download and Install.
    • 安装完成之后,重启IDEA。

    b 配置SBT

    File-->Build,Execution,Deployment-->Build Tools-->SBT

    • JVM-->Custom
      选择你自己的Java 安装目录
    • Launcher(sbt-launch.jar)-->Custom
      选择你自己的sbt-launch.jar

    c 配置Maven

    File-->Build,Execution,Deployment-->Build Tools-->Maven

    • 修改Maven home directory, 设置成你的安装目录
    • 修改User settings file,设置成你的安装目录下面conf中settings.xml

    File-->Build,Execution,Deployment-->Build Tools-->Maven-->Runner

    • VM Options 加入如下参数

      -Xmx2g -XX:MaxPermSize=512M -XX:ReservedCodeCacheSize=512m
      
    • JRE
      设置成自己想要的Java版本

    d 配置Scala

    File-->Settings-->Build,Execution,Deployment-->Compiler-->Scala Compiler

    • Incrementality type
      设置成SBT.

    File-->Settings-->Languages & Frameworks-->Scala Compile Server

    • 选中 Use external compile server for scala
    • JVM SDK 设置成自己需要的。

    2.4 在IDEA编译源代码

    a 导入代码

    File-->New-->Project From Existing Source-->选择你自己的Spark目录-->Import project from external model-->Maven ,然后一路Next,耐心等待一切完成。

    b 编译源代码

    Build-->Make Project 或者* Ctrl + F9*

    c Compilation completed successfully

    开始你的Spark之旅吧!

    2.5 可能遇到的问题

    • not found: type SparkFlumeProtocol

    View-->Tool Windows-->Maven Projects-->Reimport All Maven Projects-->Spark Project External Flume Sink-->LifeCycle-->Install-->右键Maven build
    或者
    View-->Tool Windows-->Maven Projects-->Reimport All Maven Projects-->Spark Project External Flume Sink-->右键 Generate Sources and Update Folders

    原因:EventBatch.java,SparkFlumeProtocol.java 和 SparkSinkEvent.java是由maven的avro 插件在build过程中间生成的。

    • 如果那个Module出现java.lang.NoClassDefFoundError

    Project Structure-->Modules-->对应的Module-->Dependencies-->Scope, 从provided 改为compile

    • Error:scalac:

    View-->Tool Windows-->Maven Projects-->Reimport All Maven Projects-->选中出问题的模块-->Lifecycle-->clean-->右键Run Maven Build
    然后Ctrl + F9

    • error java invalid source release 1.8 in intellij

    问题出在Java8 Tests 这个模块,主要用来测试Java8的。如果你用的是java 1.8,应该不会碰到这个问题。
    1.7的话,很简单,直接忽略掉这个Project就可以了。
    View-->Tool Windows-->Maven Projects-->Reimport All Maven Projects-->Spark Project Java8 Tests POM-->右键Ignore projects

    3,参考

    感谢下面的这些作者的创作和分享,他们的文章给了我很多的帮助。自己写过一篇之后,才知道写文章是一件多么不容易的事情。正因为如此,他们的无私奉献才更显珍贵。
    Build Spark-1.4.1 on Linux with Scala 2.10.5
    spark-1.4.1源码Intellij IDEA编译错误TestSQLContext.scala assertion failed
    Windows 下搭建 Spark 源代码阅读环境
    【Spark十五】Intellj Idea搭建Spark源代码开发环境
    Spark 源码和应用开发环境的构建
    Spark Build Spark
    IntelliJ IDEA 15.0 Help
    import Spark source code into intellj, build Error: not found: type SparkFlumeProtocol and EventBatch
    IntelliJ Runtime error

    相关文章

      网友评论

      • b0f381afce1b:镜像有问题啊~~~~~~~~~编译时maven说链接镜像超时
        帮我想变量名:@Knight_shi 有些google的包会被禁掉的。
        Knightcode:其实不用配置mvn的那个文件也是可以的,只是下载的慢一些。
        帮我想变量名: @陈的简书 收到,下周把文章更新一下。谢谢了!
      • 90ddace52582:谢谢作者,写的真的简洁直观,易懂。非常赞。。还有问题的解决都很好。。
      • 78fc54817b31:谢谢作者,写的很好

      本文标题:Windows下从源代码构建Spark

      本文链接:https://www.haomeiwen.com/subject/ihichttx.html