美文网首页
Spark-core:执行Spark任务的两个工具:spark-

Spark-core:执行Spark任务的两个工具:spark-

作者: Movle | 来源:发表于2020-05-17 18:32 被阅读0次
1.spark-submit:用于提交Spark任务

(1)举例:spark 自带的实例程序。
/opt/module/spark-2.1.0-bin-hadoop2.7/examples/jars中有Spark自带的实例程序。

蒙特卡洛求PI(圆周率)

cd /opt/module/spark-2.1.0-bin-hadoop2.7

bin/spark-submit --master spark://hadoop1:7077 --class org.apache.spark.examples.SparkPi /opt/module/spark-2.1.0-bin-hadoop2.7/examples/jars/spark-examples_2.11-2.1.0.jar 500
启动命令 执行结果
2.Spark-shell

(1)概念:相当于REPL工具,命令行工具,作为一个独立的Application运行

(2)两种运行模式:
(a)本地模式:不需要连接到Spark集群,在本地直接运行,用于测试

启动:

//后面不写任何参数,代表本地模式
bin/spark-shell  
本地模式

local代表本地模式

(b)集群模式
命令:

bin/spark-shell --master spark://hadoop1:7077
集群模式

特殊说明:

  • Spark session(spark) : Spark2.0以后提供的,利用session可以访问所有spark组件(core sql..)
  • spark context(sc) 两个对象,可以直接使用

相关文章

网友评论

      本文标题:Spark-core:执行Spark任务的两个工具:spark-

      本文链接:https://www.haomeiwen.com/subject/jmwsohtx.html