美文网首页Spark_Flink_Hadoop
Spark实现本地开发

Spark实现本地开发

作者: kason_zhang | 来源:发表于2017-05-31 22:32 被阅读242次

    Spark实现本地开发

    代码如下

    package sparksql
    
    import org.apache.spark.rdd.RDD
    import org.apache.spark.{SparkConf, SparkContext}
    import org.apache.spark.sql.SparkSession
    
    /**
      * Created by IBM on 2017/4/15.
      */
    object SparkSqlLearn extends App{
    
      val conf = new SparkConf().setMaster("spark://192.168.137.10:7077").setAppName("SparkSql")
        .setJars(List("D:\\java\\idea\\SparkLearn\\out\\artifacts\\SparkLearn_jar\\SparkLearn.jar"))
      //val conf = new SparkConf().setMaster("local").setAppName("SparkSql")
      val sc = new SparkContext(conf)
      val data = Array("app app","asd app","demo llp","demo")
      val re :RDD[(String,Int)]= sc.parallelize(data).flatMap(str => str.split(" ")).map(str => (str,1)).reduceByKey({case (x,y) => x + y})
      val re_array = re.collect()
      for((key,value) <- re_array){
        println(key + " value is " + value)
      }
    
    
      println(re.count())
      println("hello")
    }
    
    

    上面第一个要注意的就是setMaster("spark://192.168.137.10:7077")设置远程服务器
    另外就是.setJars(List("D:\java\idea\SparkLearn\out\artifacts\SparkLearn_jar\SparkLearn.jar"))告诉Spark 集群我们要提交的作业的代码在哪里,也就是我们包含我们程序的Jar包的路径,记住路径中千万别包含中文。

    配置打包:

    Paste_Image.png

    记得一定要勾选Include in project build

    然后执行build,生成Jar包,最终生成的Jar如下:

    Paste_Image.png

    然后执行代码,输出结果如下:

    Paste_Image.png

    相关文章

      网友评论

      • 31a0ce838cd4:这个setMaster("spark://192.168.137.10:7077") 和你开发环境在一个局域网吧?
        kason_zhang:@宋健_c104 是的

      本文标题:Spark实现本地开发

      本文链接:https://www.haomeiwen.com/subject/jvtsfxtx.html