美文网首页MLSQL
使用Spark SQL构建批处理程序

使用Spark SQL构建批处理程序

作者: 祝威廉 | 来源:发表于2016-07-12 13:44 被阅读1630次

    StreamingPro目前已经涵盖流式/批处理,以及交互查询三个领域,实现配置和SQL化

    前言

    今天介绍利用 StreamingPro 完成批处理的流程。

    准备工作

    • 下载StreamingPro

    README中有下载地址

    我们假设您将文件放在了/tmp目录下。

    填写配置文件

    • 实例一,我要把数据从ES导出到HDFS,并且形成csv格式。

    gist

    在批处理模式下,所有的数据源和输出都各自有一个固定的模块(使用了Spark的Datasource API),然后对模块做配置即可,无需使用不同的模块。

    在这个示例里,你需要配置上ES集群作为输入,配置hdfs作为输出,从而完成运行。

    启动StreamingPro

    Local模式:

    cd  $SPARK_HOME
    
    ./bin/spark-submit   --class streaming.core.StreamingApp \
    --master local[2] \
    --name test \
    /tmp/streamingpro-0.4.1-SNAPSHOT-online-1.6.1.jar     \
    -streaming.name test    \
    -streaming.platform spark   \
    -streaming.job.file.path file:///tmp/test.json
    

    访问

    http://127.0.0.1:4040
    

    可进入Spark UI

    集群模式:

    cd  $SPARK_HOME
    
    ./bin/spark-submit   --class streaming.core.StreamingApp \
    --master yarn-cluster \
    --name test \
    /tmp/streamingpro-0.4.1-SNAPSHOT-online-1.6.1.jar    \
    -streaming.name test    \
    -streaming.platform spark   \
    -streaming.job.file.path hdfs://cluster/tmp/test.json
    

    这里需要注意的是,配置文件并蓄放到HDFS上,并且需要协商hdfs前缀。这是一个标准的Spark 批处理程序

    相关文章

      网友评论

        本文标题:使用Spark SQL构建批处理程序

        本文链接:https://www.haomeiwen.com/subject/extsjttx.html