美文网首页
optimize trace 分析案例(order by lim

optimize trace 分析案例(order by lim

作者: 轻松的鱼 | 来源:发表于2020-07-10 16:42 被阅读0次

参考资料

使用注意事项

  • MySQL的默认值: optimizer_trace_limit = 1,optimizer_trace_offset = -1。optimizer_trace_limit = 1表示只存储一个查询信息,optimizer_trace_offset = -1 则是指向最近的一个查询,即在 INFORMATION_SCHEMA.OPTIMIZER_TRACE 表中只存储最近最后执行的一行结果数据;
  • optimizer_trace_max_mem_size 定义 trace 信息最大长度,默认 16K,如果超出这个大小,trace 信息会被截断,输出中 MISSING_BYTES_BEYOND_MAX_MEM_SIZE 大于0 代表被截断了。

使用方法

set optimizer_trace="enabled=on";
执行SQL:select ...
SELECT * FROM INFORMATION_SCHEMA.OPTIMIZER_TRACE\G
set optimizer_trace="enabled=off";

案例分析

optimize trace 可以帮助我们了解优化器详细的优化过程:比如每个索引的成本、扫描行数,每种优化策略策略的选择依据、join 连接顺序和算法的选择依据等...

下面我们通过一个典型的 order by limit 案例来解读 optimize trace 的输出。

1. 描述

有个SQL,limit 0,10 和 limit 0,9 时走的索引不一样。
SQL1:

SELECT
        `ID`, ..., `PRINT_STATUS`   
        FROM
        t_order_record rcd  
         WHERE rcd.store_code = 'QG1015'
                AND rcd.print_status = '0'
                AND rcd.location_code = 'L17'
                AND rcd.business_day = '2020-07-05 00:00:00' 
        ORDER BY rcd.order_open_time asc        
            LIMIT 0, 10;

执行计划可看到使用的是(store_code,business_day) 索引,进行了排序:

+------+-------------------------------------------------------+------------------------------------------+---------+-------------+------+----------+----------------------------------------------------+
| type | possible_keys                                         | key                                      | key_len | ref         | rows | filtered | Extra                                              |
+------+-------------------------------------------------------+------------------------------------------+---------+-------------+------+----------+----------------------------------------------------+
| ref  | IDX_CENTER_RECORD_STORE_CODE_BUSINESSDAY,BUSINESS_DAY | IDX_CENTER_RECORD_STORE_CODE_BUSINESSDAY | 247     | const,const | 5050 |     1.00 | Using index condition; Using where; Using filesort |
+------+-------------------------------------------------------+------------------------------------------+---------+-------------+------+----------+----------------------------------------------------+

SQL2:

SELECT
        `ID`, ..., `PRINT_STATUS`   
        FROM
        t_order_record rcd  
         WHERE rcd.store_code = 'QG1015'
                AND rcd.print_status = '0'
                AND rcd.location_code = 'L17'
                AND rcd.business_day = '2020-07-05 00:00:00' 
        ORDER BY rcd.order_open_time asc        
            LIMIT 0, 9;

执行计划可看到使用的是 order by 字段 order_open_time 索引,type=index 做了全索引扫描:

+-------+-------------------------------------------------------+----------------------------------+---------+------+----------+-------------+
| type  | possible_keys                                         | key                              | key_len | ref  | rows | filtered | Extra       |
+-------+-------------------------------------------------------+----------------------------------+---------+------+------+----------+-------------+
| index | IDX_CENTER_RECORD_STORE_CODE_BUSINESSDAY,BUSINESS_DAY | IDX_ORDER_RECORD_ORDER_OPEN_TIME | 6       | NULL |  561 |     0.01 | Using where |
+-------+-------------------------------------------------------+----------------------------------+---------+------+------+----------+-------------+

这里的问题在于:IDX_CENTER_RECORD_STORE_CODE_BUSINESSDAY 是个高效索引,使用它扫描行数很少,执行速度很快。而使用 IDX_ORDER_RECORD_ORDER_OPEN_TIME 索引虽然可以避免排序,但扫描行数为全表总行数,执行速度很慢。

2. optimize trace 分析

optimize trace 的输出信息很长,我们借助 json 编辑工具折叠来看。总的来说分3部分:

  • join_preparation(准备阶段)
  • join_optimization(优化阶段)
  • join_execution(执行阶段)
这里我们重点看 join_optimization 优化阶段。 join_optimization 又分了很多个阶段:

join_optimization 优化阶段:

  • steps[0].condition_processing :条件句处理。该步骤对WHERE条件句进行优化处理
  • steps[1].substitute_generated_columns :替换虚拟生成列
  • steps[2].table_dependencies :梳理表之间的依赖关系
  • steps[3].ref_optimizer_key_uses :如果优化器认为查询可以使用ref的话,在这里列出可以使用的索引
  • steps[4].rows_estimation :估算表行数和扫描的代价。如果查询中存在range扫描的话,对range扫描进行计划分析及代价估算
  • steps[5].considered_execution_plans :对比各可行计划的代价,选择相对最优的执行计划
  • steps[6].attaching_conditions_to_tables :添加附加条件,使得条件尽可能筛选单表数据
  • steps[7&8&9].clause_processing :对DISTINCT、GROUP BY、ORDER BY等语句进行优化
  • steps[10].refine_plan : 优化后的执行计划

SQL1和SQL2的 steps[0]-steps[6] 阶段优化结果都是一样的。我们从 steps[4]rows_estimation 开始看起,优化结论为:

  • 使用 IDX_CENTER_RECORD_STORE_CODE_BUSINESSDAY 索引
  • 计划扫描行数:5502
  • 计划成本:6603.4
steps[5].considered_execution_plans 由于这里是单表查询,没有子查询或者 join,所以只会有一种顺序,优化结论和上一步结论一样:

steps[7].clause_processing 由于有 order by,所以要对排序进行评估,优化结论:

  • 使用 order by 字段访问,代价太大了(没有显示成本,只显示了结果:"index_provides_order": false),所以还是用的前面优化阶段的结果,没有改变执行计划("plan_changed": false)

但是SQL2,即 limit 0,9 时,这部分的优化结果却是:

  • 使用 order by 字段访问,代价小(没有显示成本,只显示了结果:"index_provides_order": true),就推翻了前面优化阶段的结果,改了执行计划( "plan_changed": true),变成全索引扫描了("access_type": "index")
3. 结论

从 optimize trace 输出来看,在优化阶段的后期,考虑 ORDER BY 时,优化器在判断 limit 0,9 和 limit 0,10 时做出了不一样的判断,最终导致了两个 SQL 最终的执行计划不一样。这里并没有输出判断的依据,只告诉了我们判断的结果,无法得知优化器是做了怎样的成本估算计算。

相关文章

网友评论

      本文标题:optimize trace 分析案例(order by lim

      本文链接:https://www.haomeiwen.com/subject/lmumcktx.html