美文网首页
Spark学习(二):SparkConf和SparkContex

Spark学习(二):SparkConf和SparkContex

作者: CocoMama190227 | 来源:发表于2019-03-01 14:02 被阅读0次

通过创建SparkConf对象来配置应用,然后基于这个SparkConf创建一个SparkContext对象。驱动器程序通过SparkContext对象来访问Spark。这个对象代表对计算集群的一个连接。一旦有了SparkContext, 就可以用它来创建RDD。

创建SparkContext的基本方法(在Scala中初始化Spark):

val conf =new SparkConf().setMaster("local").setAppName("My App")

 val sc =new SparkContext(conf)

只需传递两个参数:
集群URL:告诉Spark如何连接到集群上。例子中使用local可以让Spark运行在单机单线程上而无需连接到集群。
应用名:例子中使用My App。当连接到一个集群时,这个值可以帮助我们在集群管理器的用户界面中找到应用。

(内容来源:《Spark快速大数据分析》)

相关文章

网友评论

      本文标题:Spark学习(二):SparkConf和SparkContex

      本文链接:https://www.haomeiwen.com/subject/gxjduqtx.html