美文网首页Java高级开发
Java架构—SQL优化实践丨查询速度提升300倍!

Java架构—SQL优化实践丨查询速度提升300倍!

作者: 程序员夏天 | 来源:发表于2019-05-21 18:45 被阅读21次

大部分开发人员都熟悉SQL,无论用什么语言开发系统,只要用到了关系型数据库,都会涉及到SQL的使用。

在某些系统中,主要的程序逻辑都体现一个个存储过程里,例如数据中心产品,这时候,大家都认为该产品主要的开发语言是SQL,于是我们把SQL当作程序本身来看待。但是在更多的业务系统中,我们通常只需要进行普通的增删改查,SQL更多只是插入在Java或者XML文件里的一些查询语句,这个时候,开发人员只把SQL当作查询分析的工具,而不是程序来看待。

接下来为大家讲述一个工作中发生的关于SQL优化的真实故事。

这是一个用户行为分析的系统,其中有三张表(简化字段后),见下图。

在daily_access表中,记录了当天的用户访问情况,一条记录就是一次访问请求;

在ip_range表中,存着IP地址的分段,从ip_start到ip_end之间的IP地址,属于同一个地区;

area表则记录着area_id和所对应的地区,由于同一个地区可能有很多个IP段,所以area表会有重复数据。

3个表的数据量情况:daily_access表的数据量约10万,area表和ip_range表约50万。这里的先决条件:ip_range表和area表是一对一关系,并且ip_start和ip_end必然互斥,不存在重叠区间。

现在的需求是,从三张表中统计出来自每个地区的访问者人数。

如果按照“查询”的思维来看,这个实现非常简单,不考虑未命中的话,daily_access表的ip_access字段必然落在ip_range的某个ip_start和ip_end之间,进行三个表连表查询即可,查询语句如下:

select COUNT (*), a.addr

from daily_access d, ip_range r, area a

where 1 =1

and d.ip_access between r.ip_start and r.ip_end

and r.area_id = a.area_id

group by a.addr;

这个SQL固然是正确的,它曾经在系统中使用过一段时间,但是效果欠佳,因为在前述数据量下, SQL一次的执行时间大约是15分钟。

或许你会觉得,对于一个后台分析系统来说,查询结果并不需要实时查看,输出到报表或者存入结果表备查都可以——确实如此——但是10万的访问量其实是一个非常小的数字,如果访问量有百万,千万呢,那么消耗的时间会成指数上升,甚至执行一晚上也出不了报表。

因此,查询语句进行了一定的优化:数据量少的表先过滤,再去关联数据量多的表:

select COUNT (*), a.addr

from ( select t1.ip_access , t2.addr

from (select d.ip_access ,

( select r.area_id

from ip_range r

where d.ip_access between r.ip_start and r.ip_end) as area_id ,

from daily_access d) t1,

area t2

where t1.area_id = t2.area_id ) d,

area a

where d.area_id = a.area_id

group by a.addr;

经过优化之后,由于首先处理了数据较多的表,筛选出较少的结果后再和另一个表关联,所以速度有所提升,执行一次大约是6分钟左右。虽然第二条方案比第一条效率提高了一倍以上,但是很显然,不管是哪一条,性能都很难被接受。

接下来,我们来看看实际生产系统中使用的查询语句是怎样的(同样简化了字段,以便看更清晰):

with vstat_details as ( select /*+ all_rows materialize */ distinct ip_access from daily_access ),

vstat_ip_range as (

select /*+ all_rows materialize */

v2.ip_start n_ip, v2.area_id

from (select v1.dataset, v1.ip_start,

last_value(v1.range_start ignore nulls ) over (order by v1.vc_ip_start,v1.dataset) range_start,

last_value(v1.range_end ignore nulls ) over (order by v1.vc_ip_start,v1.dataset) range_end,

last_value(v1.area_id ignore nulls ) over (order by v1.vc_ip_start,v1.dataset) area_id

from (select 1 dataset,

t1.ip_start,

t1.ip_start range_start,

t1.ip_end range_end,

t1.area_id

from ip_range t1

union all

select /*+ leading(d) use_hash(r) no_merge(d) full(r) */

2 dataset,

t2.n_ip ip_start,

null range_start,

null range_end,

null area_id

from daily_access t2) v1) v2

where v2.ip_start >= v2.range_start

and v2.ip_start <= v2.range_end

and v2.dataset = 2)

select /*+ all_rows leading(v,d) use_hash(d,a) no_merge(v) */

count (*) as n_pageviews,

a.addr

from vstat_ip_range v,

daily_access d,

area a

where v.n_ip = d.ip_access

and v.area_id = a.area_id

group by a.addr;

为什么一个简单的查询语句有那么长呢?

前面两段查询语句,开发人员在编写的时候,潜意识里把SQL当作一种查询和分析数据的手段和工具,而不是编程,而这段SQL,不仅仅从“查”这个视角来看问题,更是利用数据结构和算法来解决问题。这种出发点的不同,导致了编程思路的不同。

接下来,我们来把上面这段SQL拆解开研究一下它的解题思路。

首先,从最内层入手,内层的子查询,对ip_range表的数据进行了预处理,添加了一个标记“1”:

select 1 dataset,

t1.ip_start,

t1.ip_start range_start,

t1.ip_end range_end,

t1.area_id

from ip_range t1

假设ip_range的数据如下(为了方便,我们把IP简化为简单整数表示):

id area_id ip_start ip_end

-------------------------------------------------------

1 1 15 20

2 2 22 25

3 3 30 35

4 4 36 40

那么标记完成后的数据结构将是如下

标记 area_id ip_start ip_end start2

----------------------------------------------------------------------

1 1 15 20 15

1 2 22 25 22

1 3 30 35 30

1 4 36 40 36

再接下来,要将访问记录表daily_access,也按照来访IP记录,整理成相同格式,并且添加标记“2”:

select 2 dataset,

t2.n_ip ip_start,

null range_start,

null range_end,

null area_id

from daily_access t2

我们假设有以下4条访问记录,那么整理后的临时数据结构如下:

标记 area_id ip_start ip_end start2

----------------------------------------------------------------------

2 null 16 null null

2 null 22 null null

2 null 24 null null

2 null 39 null null

如果把两个表合并(union all),并且按照ip_start和标记字段进行排序,就能得到下面这个数据结构:

标记 area_id ip_start ip_end start2

----------------------------------------------------------------------

1 1 15 20 15

2 null 16 null null

1 2 22 25 22

2 null 22 null null

2 null 24 null null

1 3 30 35 30

1 4 36 40 36

2 null 39 null null

其实我们要取的内容,就是标记为2的ip所对应的area_id,但此时还看不出来,所以接下来最关键的一步是,将所有的“null”用数据填满,填充的规则是,用它上面一条相邻的标记为1的数据的对应字段的值来填充,于是得到下图:

标记 area_id ip_start ip_end start2

----------------------------------------------------------------------

1 1 15 20 15

2 1 16 20 15

1 2 22 25 22

2 2 22 25 22

2 2 24 25 22

1 3 30 35 30

1 4 36 40 36

2 4 39 40 36

从上面这个临时表中剔除标记为“1”的数据后,就得到了我们需要的数据:

标记 area_id ip_start ip_end start2

----------------------------------------------------------------------

2 1 16 20 15

2 2 22 25 22

2 2 24 25 22

2 4 39 40 36

从中可以看到,需要统计的area_id已经一目了然,任何ip_start的值落在同一条数据中ip_end和start2之间的数据,其area_id都是我们要取得数据。整个过程没有做任何大数据量的连表查询,效率非常高。

将上述过程预构造成一个临时表,就是前述查询语句上半段所做的事:

with vstat_details as ( select /*+ all_rows materialize */ distinct ip_access from daily_access ),

vstat_ip_range as (

select /*+ all_rows materialize */

v2.ip_start n_ip, v2.area_id

from (select v1.dataset, v1.ip_start,

last_value(v1.range_start ignore nulls ) over (order by v1.vc_ip_start,v1.dataset) range_start,

last_value(v1.range_end ignore nulls ) over (order by v1.vc_ip_start,v1.dataset) range_end,

last_value(v1.area_id ignore nulls ) over (order by v1.vc_ip_start,v1.dataset) area_id

from (select 1 dataset,

t1.ip_start,

t1.ip_start range_start,

t1.ip_end range_end,

t1.area_id

from ip_range t1

union all

select /*+ leading(d) use_hash(r) no_merge(d) full(r) */

2 dataset,

t2.n_ip ip_start,

null range_start,

null range_end,

null area_id

from daily_access t2) v1) v2

where v2.ip_start >= v2.range_start

and v2.ip_start <= v2.range_end

and v2.dataset = 2)

而最后,只需要用这个临时表进行简单关联查询:

select /*+ all_rows leading(v,d) use_hash(d,a) no_merge(v) */

count (*) as n_pageviews,

a.addr

from vstat_ip_range v,

daily_access d,

area a

where v.n_ip = d.ip_access

and v.area_id = a.area_id

group by a.addr;

由于没有between 比较,数据量也被预先筛选处理,整个查询过程非常的快速,前述数据量下,查询大约耗时3秒,比最初的查询语句性能要高出300倍。

实际上,目前用户行为分析系统已经用大数据平台进行了重制,IP地址比较也可以用非关系型数据库来获得更高的性能,但这段旧系统中的查询语句,能带给我们的启发,仍然非常有意义,它用事实让我们重新认识到这样一个道理:SQL也是程序。

记住这一点,能帮助在我们今后的程序开发中,写出更符合“程序”思维的SQL语句,而非仅仅是从自然语义出发的“查询”。

每天都会分享干货,记得点个关注哦!!!

相关文章

  • Java架构—SQL优化实践丨查询速度提升300倍!

    大部分开发人员都熟悉SQL,无论用什么语言开发系统,只要用到了关系型数据库,都会涉及到SQL的使用。 在某些系统中...

  • 11-mysqlSQL分析

    六星教育 - java-mysql优化1909 SQL优化 所谓SQL优化:基于MySQL的优化器查询规则来优化S...

  • SQL执行与优化

    SQL优化 执行计划,表关联查询顺序,优化策略与思路 MYSQL执行过程 一、MySQL架构总览: 二、查询执行流...

  • 数据库查询优化相关

    关于数据库优化的内容整理 查询优化: 一.常见SQL实践 1.负向条件查询不使用索引(由于B tree) not ...

  • 性能调优之SQL优化

    性能调优之SQL优化如何加快查询速度?1、升级硬件2、根据查询条件,建立索引,优化索引、优化访问方式,限制结果集的...

  • mysql查询优化 - 慢查询

    mysql查询速度优化思路 开启慢查询日志 查看导致阻塞的sql语句 重现场景, 单独测试 mysql 慢查询分析...

  • 数据存储 - 说说 SQL 优化之道

    学习完整课程请移步 互联网 Java 全栈工程师 一些常见的 SQL 实践 负向条件查询不能使用索引 可以优化为 ...

  • MySQL - 架构图

    从一条SQL查询过程讲起MySQL架构图 架构图 Server 层包括连接器、查询缓存、分析器、优化器、执行器等,...

  • 慢查询优化实践(已解决)

    一、问题背景 现网出现慢查询,在500万数量级的情况下,单表查询速度在30多秒,需要对sql进行优化,sql如下:...

  • 记录一次神奇的MySQL Group by慢查询优化

    一、问题背景 现网出现慢查询,在500万数量级的情况下,单表查询速度在30多秒,需要对sql进行优化,sql如下:...

网友评论

    本文标题:Java架构—SQL优化实践丨查询速度提升300倍!

    本文链接:https://www.haomeiwen.com/subject/mshszqtx.html