Spark查询druid

作者: sydt2011 | 来源:发表于2020-08-10 11:15 被阅读0次

Druid是Apache 下开源的一款存储与计算一体的olap查询引擎,spark则是纯计算引擎。Druid的数据存储在历史节点,通过broker节点查询,整体的查询流程是两阶段的聚合。数据分布在多个历史节点,查询时,第一阶段在各个历史节点并行计算,第二阶段,多个历史节点的数据汇聚到broker节点,做最后的聚合结算。架构上,broker存在单点瓶颈的风险。通常的意义的聚合,例如sum,max,min,count,broker查询性能足够应对。但是,复杂的聚合,例如去重计算:datasketch,hypeunique,bitmap精确去重,分位数计算,broker显得捉襟见肘,特别吃力。
这类计算不是简单的类型的加减乘除(max,min,sum),而是复杂数据容器之间的计算,占用堆内存特别多,CPU消耗也很多。顺便说一句,我们的分析场景,max,min,sum,avg,count 毫无地位,disctinct count才是主角,恰恰去重计算业界根本没有特别好的解决方案。唯一的一个是美图的基于分布式bitmap的去重计算:https://www.infoq.cn/article/UEyPTRJcztM7FQGebtfT
单个broker根本不足以应付。解决思路自然是增加broker节点,增加聚合的并行度。

1)数据分布在60个历史节点上,我们可以引入10个broker节点,每个broker节点负责聚合6个历史节点聚合的中间数据。这样第二阶段有10个broker节点在聚合。最后再引入一个broker,将10个broker的聚合结果最后一次聚合。


image.png

2)1)的不足之处在与,第二阶段的聚合的并发还是不够多。直接一步到位,引入分布式计算引擎:spark或者presto,历史节点的计算的结果在spark中构建临时表,通过全体数据shuffle的方式,进行聚合。这里以spark为例。
假设数据分布在60个历史节点,spark启动60个executor,每个executor分别拉取一个历史节点的数据,这样RDD的分区数量是:60。通过自定义UDAF函数,对数据通过shuffle进行分组聚合。最后的结果拉倒driver。这里的最后结果已经最终的结果,可以直接传输到driver,返回查询结果。


image.png

1)自定义RDD。实现compute,getPartition等接口。
这里定义RDD的分区数量与传入的参数历史节点的数量相等。
定义next接口。这里强调下spark和druid是一脉相承。druid中,历史节点返回聚合数据的方式就是通过迭代器的方式流式返回,所以,RDD的next接口中,可以自然使用druid中迭代器接口:JsonParserIterator。直接将DirectDruidClient中JsonParserIterator封装一下,放到RDD的next中,特别合适。复杂聚合类型的数据类型,历史节点中返回是byte[],在spark需要转换为binaryType。
2)自定义数据源。实现relationprovider接口,buildscan等。
3)自定义复杂类型的聚合函数UDAF。
可以参考这个https://www.shangmayuan.com/a/f5496e01261d4b499d9cb938.html
本质上就是将byte[] 反序列为RoaringBitmap类型,进行与或操作,然后序列化,开始下一次聚合。

相关文章

  • Spark查询druid

    Druid是Apache 下开源的一款存储与计算一体的olap查询引擎,spark则是纯计算引擎。Druid的数据...

  • Druid查询语法

    本文的demo示例均来源于官网。 Druid查询概述 Druid的查询是使用Rest风格的http请求查询服务节点...

  • Druid 如何开启查询日志

    在默认的情况下,Druid 是不开启查询日志的。 换句话说,在 Druid 进行查询的数据是不会显示在 Druid...

  • druid查询流程

    GroupBy查询 group by是druid的核心查询。 从broker到historical的查询 历史节点...

  • 从 Druid 控制台(Druid console)中进行查询

    Druid 控制台提供了视图能够让用户更加容易的在 Druid 进行查询测试,并且查看查询返回的结果。 如果你的 ...

  • Druid(一)——Druid架构概览

    什么是Druid Druid是一个高效的数据查询系统,主要解决的是对于大量的基于时序的数据进行聚合查询。数据可以实...

  • druid

    Druid.io(以下简称Druid)是面向海量数据的、用于实时查询与分析的OLAP存储系统。Druid的四大关键...

  • Druid 查询优化

    缓存 当集群机器较少时(官方文档推荐<20台),在broker节点配置缓存,可以适当增加缓存大小,或者从local...

  • SparkSQL简介

    一、 如何运行Spark SQL 查询 1.1、Spark SQL CLI 要启动Spark SQL CLI ,请...

  • 十分钟鸟瞰Druid

    Druid是个啥 Druid设计目标 快速查询 : 部分数据聚合 + Cache + 索引水平拓展能力:分布式列式...

网友评论

    本文标题:Spark查询druid

    本文链接:https://www.haomeiwen.com/subject/wpwddktx.html