美文网首页
spark combineByKey 代替 groupByKey

spark combineByKey 代替 groupByKey

作者: IT入门指南 | 来源:发表于2020-01-13 16:38 被阅读0次

combineByKey 和 groupByKey 的区别

两者都可以对数据进行分组统计,但是前者在一般情况下,进行数据混洗的数据会远远小于后者。前者部分数据会在excutor端进行本地合并,然后将合并之后的数据进行网络混洗,后者是全部的数据进行网络混洗。

项目中的例子需求

hbase 中存储了车辆的 行驶数据,包括 车辆id,日期,当天行驶的里程数据,每天急加速,急减速的次数等
现有一个需求,计算每一个车辆的平均速度,和每一个月的平均行驶天数,里程的中位数等。
数据量在上亿的级别。数据hbase进行预分区, rowkey为 车辆id的反转加上日期 :"10924_20191010"

解决方案

第一版的解决方案为直接 读取hbase 数据进行foreachPartition 操作。因为hbase进行的预分区。相同的车辆id必然在同一个partition里面,但是,发现线上hbase region进行自动划分。但是有极少数的车辆id不在同一个region里面。此方案不行

第二版,直接读取数据进行全局的groupByKey操作。测试环境5千万条数据,跑的时间很慢。数据混洗时间较长。网络混洗的数据量较大。

第三版,为了优化网络混洗。combineByKey  代替groupByKey。 测试环境跑5千万条数据,不到3分钟跑完。

关于 combineByKey 的比较好的例子

https://backtobazics.com/big-data/apache-spark-combinebykey-example/](https://backtobazics.com/big-data/apache-spark-combinebykey-example/)

部分代码

case class VehicleMileage(vehicleId: Int, mileage: Int, reportTime: String)

 def createCombiner(v: VehicleMileage): List[VehicleMileage] = {
    List(v)
  }

 def mergeValue(vList: List[VehicleMileage], v: VehicleMileage): List[VehicleMileage] = {
    v :: vList
 }

 def mergeCombiners(vList1: List[VehicleMileage], vList2: List[VehicleMileage]): List[VehicleMileage] = {
    vList1 ::: vList2
 }

val hbaseConfig = HBaseConfiguration.create();
val scan = new Scan()
scan.addFamily("F".getBytes())
scan.setCaching(1000)
scan.setCacheBlocks(false)
hbaseConfig.set("hbase.zookeeper.quorum", zkUrl);
hbaseConfig.set("zookeeper.znode.parent", "/hbase-unsecure");
hbaseConfig.set(TableInputFormat.INPUT_TABLE, "xxxxxxxxx")
hbaseConfig.set(TableInputFormat.SCAN, TableMapReduceUtil.convertScanToString(scan))
val hbaseRdd = sc.newAPIHadoopRDD(hbaseConfig,
classOf[TableInputFormat],
classOf[ImmutableBytesWritable],
     classOf[Result])

hbaseRdd.combineByKey(createCombiner, mergeValue, mergeCombiners).foreachPartition(parition => {
    //分组之后计算 统计指标, 平均速度等
})

相关文章

网友评论

      本文标题:spark combineByKey 代替 groupByKey

      本文链接:https://www.haomeiwen.com/subject/utcnactx.html