美文网首页
Spark经典案之求最大最小值

Spark经典案之求最大最小值

作者: piziyang12138 | 来源:发表于2018-10-19 09:59 被阅读0次

    数据准备
    eightteen_a.txt
    102
    10
    39
    109
    200
    11
    3
    90
    28

    eightteen_b.txt
    5
    2
    30
    838
    10005

    package ClassicCase
    
    import org.apache.spark.{SparkConf, SparkContext}
    
    /**
      * 业务场景:求最大最小值
      * Created by YJ on 2017/2/8.
      */
    
    object case5 {
      def main(args: Array[String]): Unit = {
        val conf = new SparkConf().setMaster("local").setAppName("reduce")
        val sc = new SparkContext(conf)
        sc.setLogLevel("ERROR")
        val fifth = sc.textFile("hdfs://192.168.109.130:8020//user/flume/ClassicCase/case5/*", 2)
        val res = fifth.filter(_.trim().length>0).map(line => ("key",line.trim.toInt)).groupByKey().map(x => {
          var min = Integer.MAX_VALUE
          var max = Integer.MIN_VALUE
          for(num <- x._2){
            if(num>max){
              max = num
            }
            if(num<min){
              min = num
            }
          }
          (max,min)
        }).collect.foreach(x => {
          println("max\t"+x._1)
          println("min\t"+x._2)
        })
      }
    
    }
    
    

    结果输出
    max 10005
    min 2

    rdd.reduce((x,y)=>{if(x.toInt > y.toInt) x.toString else y.toString}).foreach(print)

    相关文章

      网友评论

          本文标题:Spark经典案之求最大最小值

          本文链接:https://www.haomeiwen.com/subject/yrfyzftx.html