美文网首页
Flink__Flink1.10.0源码编译

Flink__Flink1.10.0源码编译

作者: guyuetftb | 来源:发表于2020-10-28 20:39 被阅读0次

    从源码编译Flink需要在本地安装以下基础组件.

    1. 系统环境: MacOS - Darwin localhost 19.5.0 Darwin Kernel Version 19.5.0: Tue May 26 20:41:44 PDT 2020; root:xnu-6153.121.2~2/RELEASE_X86_64 x86_64
    2. JDK,编译flink1.10.0 需要JDK8 及以上版本。
    3. Maven,Maven3.3.x可以构建Flink,但不能涵盖某些Jar依赖,编译打包可能会有问题。Flink1.10.0推荐使用Maven3.2.5。要构建单元测试,请使用Java 8u51 或更高版本,防止使用单元测试PowerMock时出错。
    4. Git
    5. NodeJs.
    6. Scala: Flink支持Java, Scala,Python3种语言。如果开发者是Java技术栈,没接触过Scala可以不考虑Scala。Flink类库,运行时环境,API有部分是用Scala语言编写的。用户使用的ScalaAPI 和类库的版本需要与Flink的Sacla版本匹配。从Flink1.7及后续版本编译Flink使用Scala2.11(默认)或Scala2.12版本。

    构建Flink

    1. 下载Flink源码

    可以从Flink Release页下载Flink源码 ,或者 Flink Github 克隆源码,然后使用 git checkout release-1.10.0 切到指定分支,我需要的是1.10.0版本。

    git clone https://github.com/apache/flink
    git checkout release-1.10.0

    2. 修改当前用户Maven 'setting.xml' 文件.

    <mirrors>
        <mirror>
            <id>nexus-aliyun</id>
            <mirrorOf>*,!jeecg,!jeecg-snapshots,!mapr-releases</mirrorOf>
            <name>Nexus aliyun</name>
            <url>http://maven.aliyun.com/nexus/content/groups/public</url>
        </mirror>
    
        <mirror>
            <id>mapr-public</id>
            <mirrorOf>mapr-releases</mirrorOf>
            <name>mapr-releases</name>
            <url>https://maven.aliyun.com/repository/mapr-public</url>
        </mirror>
    </mirrors>
    

    第1个mirror:使用的是aliyun提供的maven镜像仓库,能够为国内用户加速maven repository的访问

    第2个mirror:最重要,由于flink中的flink-filesystems/flink-mapr-fs模块依赖mapr-releases repository提供的jar包,然而由于国内访问mapr-releases repository比较慢,而且所依赖的maprfs-5.2.1-mapr.jar 这个jar包有48MB,flink依赖中最大的一个jar包,故初次编译flink时,往往会由于下载mapr相关依赖超时导致编译失败。因此,aliyun专门有一个镜像仓库代理mapr-releases repository,以期望能让用户更容易地下载mapr相关的jar包。
    参考连接

    3. 修改flink-runtime-web工程的Pom.xml文件

    flink-runtime-web模块引入了frontend-maven-plugin依赖,并安装了node和部分依赖组件,源码编译时一直卡在 [INFO] Running ‘npm ci --cache-max=0 --no-save’ in。Google一把说是网络问题,于是修改了flink-runtime-web模块的pom.xml文件:

    <plugin>
        <groupId>com.github.eirslett</groupId>
        <artifactId>frontend-maven-plugin</artifactId>
        <version>1.6</version>
        <executions>
            <execution>
                <id>install node and npm</id>
                <goals>
                    <goal>install-node-and-npm</goal>
                </goals>
                <configuration>
                    <!-- 新增部分 -->
                    <nodeDownloadRoot>https://registry.npm.taobao.org/dist/</nodeDownloadRoot>
                    <npmDownloadRoot>https://registry.npmjs.org/npm/</npmDownloadRoot>
                    <nodeVersion>v10.9.0</nodeVersion>
                </configuration>
            </execution>
            <execution>
                <id>npm install</id>
                <goals>
                    <goal>npm</goal>
                </goals>
                <configuration>
                    <!-- 修改部分  -->
                    <!-- 原始命令: ci --cache-max=0 --no-save -->
                    <arguments>install -registry=https://registry.npm.taobao.org --cache-max=0 --no-save</arguments>
                    <environmentVariables>
                        <HUSKY_SKIP_INSTALL>true</HUSKY_SKIP_INSTALL>
                    </environmentVariables>
                </configuration>
            </execution>
            <execution>
                <id>npm run build</id>
                <goals>
                    <goal>npm</goal>
                </goals>
                <configuration>
                    <arguments>run build</arguments>
                    <!-- 新增部分 -->
                    <npmRegistryURL>https://registry.npm.taobao.org</npmRegistryURL>
                </configuration>
            </execution>
        </executions>
        <configuration>
            <workingDirectory>web-dashboard</workingDirectory>
        </configuration>
    </plugin>
    

    参考连接1
    参考连接2

    4. 编译Flink源码

    比较简单的打包方式是使用下面命令:

    mvn clean install -DskipTests
    

    这条打包命令maven会先删除之前已经存在的编译文件,然后再打包编译新的文件。
    这条命令运行速度会比较慢,因为打包了一些不常用的jar包,比如"QA", "JavaDocs"等,如果想打包速度快一些,可以执行下面命令:

    mvn clean install -DskipTests -Dfast
    

    此命令会跳过"QA", "JavaDocs"等jar包的编译,加快编译打包。还可以指定Hadoop版本,Scala版本等:

    mvn clean install -DskipTests -Dfast -Dhadoop.version=2.8.3 -Dscala-2.12
    

    5. 源码编译成功

    编译成功的文件会放在flink源码目录/flink-dist/target 目录下:

    localhost:target guyue$ ll
    total 199104
    -rw-r--r--  1 guyue  staff    30B 10 27 16:12 .plxarc
    drwxr-xr-x  3 guyue  staff    96B 10 27 16:12 antrun
    drwxr-xr-x  2 guyue  staff    64B 10 27 16:13 archive-tmp
    -rw-r--r--  1 guyue  staff   490K 10 27 16:13 bash-java-utils.jar
    drwxr-xr-x  5 guyue  staff   160B 10 27 16:12 classes
    drwxr-xr-x  3 guyue  staff    96B 10 27 16:13 flink-1.10.0-bin
    -rw-r--r--  1 guyue  staff    96M 10 27 16:13 flink-dist_2.12-1.10.0.jar
    drwxr-xr-x  3 guyue  staff    96B 10 27 16:12 generated-test-sources
    drwxr-xr-x  3 guyue  staff    96B 10 27 16:12 maven-archiver
    drwxr-xr-x  3 guyue  staff    96B 10 27 16:12 maven-shared-archive-resources
    -rw-r--r--  1 guyue  staff   206K 10 27 16:12 original-flink-dist_2.12-1.10.0.jar
    drwxr-xr-x  4 guyue  staff   128B 10 27 16:12 temporary
    drwxr-xr-x  5 guyue  staff   160B 10 27 16:12 test-classes
    

    遇到的问题

    1. Could not find artifact io.confluent:kafka-schema-registry-client:jar:3.3.1
    [ERROR] Failed to execute goal on project flink-avro-confluent-registry: Could not resolve dependencies for project org.apache.flink:flink-avro-confluent-registry:jar:1.10.0: Could not find artifact io.confluent:kafka-schema-registry-client:jar:3.3.1 in nexus-aliyun (http://maven.aliyun.com/nexus/content/groups/public) -> [Help 1]
    [ERROR]
    [ERROR] To see the full stack trace of the errors, re-run Maven with the -e switch.
    [ERROR] Re-run Maven using the -X switch to enable full debug logging.
    [ERROR]
    [ERROR] For more information about the errors and possible solutions, please read the following articles:
    [ERROR] [Help 1] http://cwiki.apache.org/confluence/display/MAVEN/DependencyResolutionException
    [ERROR]
    [ERROR] After correcting the problems, you can resume the build with the command
    [ERROR]   mvn <goals> -rf :flink-avro-confluent-registry
    

    镜像仓库中没有"kafka-schema-registry-client-3.3.1.jar" 依赖,手动从 这里下载,手动安装到本地仓库:

    mvn install:install-file -DgroupId=io.confluent -DartifactId=kafka-schema-registry-client -Dversion=3.3.1 -Dpackaging=jar  -Dfile=/Users/guyue/Downloads/kafka-schema-registry-client-3.3.1.jar
    

    再次重新编译。
    参考连接
    参考连接

    相关文章

      网友评论

          本文标题:Flink__Flink1.10.0源码编译

          本文链接:https://www.haomeiwen.com/subject/dghxvktx.html