美文网首页
1.4 Spark Architecture 程序执行

1.4 Spark Architecture 程序执行

作者: GongMeng | 来源:发表于2018-11-13 18:41 被阅读0次
import org.apache.spark.{SparkContext, SparkConf}

object SparkMeApp {
  def main(args: Array[String]) {
    // 指定Master服务器的地址
    val masterURL = "spark://localhost:8080"  (1)
    // 读入本次任务需要的各种配置
    val conf = new SparkConf()  (2)
      .setAppName("SparkMe Application")
      .setMaster(masterURL)
    // 初始化SparkContext, 我们已经知道这是Driver里的项目经理
    val sc = new SparkContext(conf) (3)
    // 这里把文件读入, 生成了一个RDD
    val fileName = util.Try(args(0)).getOrElse("build.sbt")
    val lines = sc.textFile(fileName).cache() (4)
    // 数了一下这个RDD有多少行, 把结果汇总到Driver然后打印
    val c = lines.count() (5)
    println(s"There are $c lines in $fileName")
  }
}

这段代码用本地模式统计了一下sbt的构造文件有多少行


执行

相关文章

网友评论

      本文标题:1.4 Spark Architecture 程序执行

      本文链接:https://www.haomeiwen.com/subject/minlfqtx.html