美文网首页
Spark-core:执行Spark任务的两个工具:spark-

Spark-core:执行Spark任务的两个工具:spark-

作者: Movle | 来源:发表于2020-05-17 18:32 被阅读0次
    1.spark-submit:用于提交Spark任务

    (1)举例:spark 自带的实例程序。
    /opt/module/spark-2.1.0-bin-hadoop2.7/examples/jars中有Spark自带的实例程序。

    蒙特卡洛求PI(圆周率)

    cd /opt/module/spark-2.1.0-bin-hadoop2.7
    
    bin/spark-submit --master spark://hadoop1:7077 --class org.apache.spark.examples.SparkPi /opt/module/spark-2.1.0-bin-hadoop2.7/examples/jars/spark-examples_2.11-2.1.0.jar 500
    
    启动命令 执行结果
    2.Spark-shell

    (1)概念:相当于REPL工具,命令行工具,作为一个独立的Application运行

    (2)两种运行模式:
    (a)本地模式:不需要连接到Spark集群,在本地直接运行,用于测试

    启动:

    //后面不写任何参数,代表本地模式
    bin/spark-shell  
    
    本地模式

    local代表本地模式

    (b)集群模式
    命令:

    bin/spark-shell --master spark://hadoop1:7077
    
    集群模式

    特殊说明:

    • Spark session(spark) : Spark2.0以后提供的,利用session可以访问所有spark组件(core sql..)
    • spark context(sc) 两个对象,可以直接使用

    相关文章

      网友评论

          本文标题:Spark-core:执行Spark任务的两个工具:spark-

          本文链接:https://www.haomeiwen.com/subject/jmwsohtx.html