我们经常会使用order by
进行排序,现在我们来聊聊它是怎么工作的。
例如:
CREATE TABLE `t` (
`id` int(11) NOT NULL,
`city` varchar(16) NOT NULL,
`name` varchar(16) NOT NULL,
`age` int(11) NOT NULL,
`addr` varchar(128) DEFAULT NULL,
PRIMARY KEY (`id`),
KEY `city` (`city`)
) ENGINE=InnoDB;
select city,name,age from t where city='杭州' order by name limit 1000;
1、全字段排序
前面介绍过索引,为了避免全表扫描,上述例子中需要在city
字段上加索引。
使用explain 命令来看这个语句的执行情况。
explain分析Extra
这个字段中的Using filesort
表示的就是需要排序,MySQL 会给每个线程分配一块内存用于排序,称为 sort_buffer
。
为了说明这个SQL查询语句的执行过程,我们来看下city这个索引的示意图。
索引示意图从图中可以看到,满足city = ‘杭州’
条件的行,是从ID_X到ID_(X+N)的这些记录。
通常情况下,这个语句的执行顺序如下:
- 初始化 sort_buffer,确定放入 name、city、age 这三个字段
- 从索引 city 找到第一个满足city = ‘杭州’条件的主键id,也就是图中的ID_X
- 到主键 id 索引取出整行,取 name、city、age 三个字段的值,存入 sort_buffer 中
- 从索引 city 取下一个记录的主键 id
- 重复步骤3、4直到 city 的值不满足查询条件为止,对应的主键 id 也就是图中的 ID_Y
- 对 sort_buffer 中的数据按照字段 name 做快速排序
- 对照排序结果取前1000行返回给客户端
排序过程整理如下图所示,我们称为全字段排序:
全字段排序示意图中“按name排序” 这个动作,可能在内存中完成,也可能需要使用外部排序,这取决于排序所需的内存和参数 sort_buffer_size
。
sort_buffer_size
就是MySQL为排序开辟的内存(sort_buffer)的大小。如果要排序的数据量小于sort_buffer_size
,排序就在内存中完成;如果大于,内存中放不下,则不得不利用磁盘临时文件辅助排序。
可以通过如下方式来确定一个排序语句是否使用了临时文件:
/* 打开optimizer_trace,只对本线程有效 */
SET optimizer_trace='enabled=on';
/* @a保存Innodb_rows_read的初始值 */
select VARIABLE_VALUE into @a from performance_schema.session_status where variable_name = 'Innodb_rows_read';
/* 执行语句 */
select city, name,age from t where city='杭州' order by name limit 1000;
/* 查看 OPTIMIZER_TRACE 输出 */
SELECT * FROM `information_schema`.`OPTIMIZER_TRACE`\\G
/* @b保存Innodb_rows_read的当前值 */
select VARIABLE_VALUE into @b from performance_schema.session_status where variable_name = 'Innodb_rows_read';
/* 计算Innodb_rows_read差值 */
select @b-@a;
这个方法是通过查看 OPTIMIZER_TRACE
的结果来确认的,可以从 number_of_tmp_files
中看到是否使用了临时文件。
number_of_tmp_files
表示的是,排序过程中使用的临时文件数。至于为什么需要18个文件,因为外部排序一般使用归并排序算法。可以简单理解为,MySQL 将需要排序的数据分成 18 份,每一份单独排序后存在这些临时文件中。然后把这18个有序文件再合并成一个有序的大文件。
如果安全在内存中完成排序,则number_of_tmp_files
的值就是0。
sort_buffer_size
越小,需要分成的份数越多,number_of_tmp_files
的值就越大。
上图中其他两个字段的意思:
- examined_rows 的值为 30229,表示有 30229 条满足条件的记录,并参与了排序
- sort_mode 里面的
packed_additional_fields
的意思是,排序过程对字符串做了“紧凑”处理。即使name字段的定义 是 varchar(16),在排序过程中还是需要按照实际长度来分配空间。
同时,最后一个查询语句 select @b - @a
的返回结果是 30229,表示整个执行过程扫描了 30229 行。
2、rowid 排序
在上面这个算法过程里,只对原表的数据读了一遍,剩下的操作都是在 sort_buffer 和临时文件中执行的。但这个算法有一个问题,就是如果查询要返回的字段很多的话,那么sort_buffer 里面要放的字段数太多,这样内存里能够同时放下的行数很少,要分成很多个临时文件,排序的性能会很差。
所以如果单行很大,这个方法效率不够好。
那么,如果MySQL认为排序的单行长度太大会怎么做呢?
接下来,我们来修改一个参数,让MySQL 采用另外一种算法。
SET max_length_for_sort_data = 16;
max_length_for_sort_data
,是MySQL中专门控制用于排序的行数据的长度的一个参数。他的意思是,如果单行的长度超过这个值,MySQL 就认为单行太大,要换一个算法。
新的算法放入 sort_buffer 的字段,只有要排序的列(即 name 字段)和主键 id。
这时,整个执行流程:
- 初始化 sort_buffer,确定放入两个字段,即 name 和 id
- 从索引 city 找到第一个满足 city = ‘杭州’条件的主键,也就是图中的ID_X
- 到主键 id 索引取出整行,取 name、id 这两个字段,存入 sort_buffer 中
- 从索引 city 取下一个记录的主键id
- 重复步骤3、4直到不满足条件为止
- 对 sort_buffer 中的数据按照字段 name 进行排序
- 遍历排序结果,取前 1000 行,并按照 id 的值回到原表中取出 city、name 和 age 三个字段返回给客户端
整个执行过程如下,我们称为 rowid排序:
rowid排序示意图对比于全字段排序,rowId 排序多访问了一次表 t 的主键索引,就是步骤7。
需要说明的是,最后的“结果集”是一个逻辑概念,实际上 MySQL 服务端从排序后的 sort_buffer 中依次取出id,然后到原表查到 city、name 和 age 这三个字段的结果,不需要在服务端再耗费内存存储结果,是直接返回给客户端的。
我们来看看结果会有什么不同:
OPTIMIZER_TRACE 分析结果- 首先,图中的
examined_rows
的值是 30229,表示用于排序的数据是 30229行 - 其次,
select @b - @a
的结果是31230 行,因为这时候除了排序过程外,在排序完成后还需要回表查询,由于是limit 1000,因此多读了1000行(至于1001 是InnoDB统计机制的问题)。 - sort_key 变成了<sort_key, rowid>,表示参与排序的只有 name 和 id 这两个字段
- number_of_tmp_files 变成了 0,是因为这时候参与排序的行数虽然没变,但是每一行都变小了,因此需要排序的总数据量就变小了,此时可以在内存中进行排序。
3、全字段排序VS rowid 排序
- 如果MySQL 担心排序内存太小,会影响排序效率,则会采用 rowid 排序算法,这样排序的过程中一次可以排序更多行,但是需要回表。
- 如果MySQL 认为内存足够大,会优先选择全字段排序,把需要的字段都放到 sort_buffer 中,这样排序后就会直接从内存里面返回查询结果,不用回表。
- MySQL设计思想:如果内存够,就多利用内存,尽量减少磁盘访问。因此,rowid 排序会要求回表多造成磁盘读,因此不会被优先选择。
其实,并不是所有的 order by 语句,都需要排序操作的。从上面分析的执行过程,我们可以看到,MySQL 之所以需要生成临时表,并且在临时表上做排序,其原因是原来的数据都是无序的。
如果能够保证从city 这个索引上取出来的行,天然就是按照name递增排序的话,可以不用再排序了。
我们在这张表上创建一个 city 和 name 的联合索引,对应的 SQL 语句是:
alter table t add index city_user(city, name);
在这个索引里面,我们依然可以用树搜索的方式定位到第一个满足 city=‘杭州’ 的记录,并且额外保证了,只要 city的值是 杭州,name 的值就一定是有序的。
这样整个查询过程的流程就变成了:
- 从索引 (city,name) 找到第一个满足条件的主键id
- 回表取 name、city、age 三个字段的值,作为结果集的一部分直接返回
- 从索引(city,name)取下一个记录主键id
- 重复步骤 2、3,直到查到第 1000条记录,或者不满足条件时循环结束
这个查询过程不需要临时表,也不需要排序。接下来,我们用explain 的结果来验证一下。
explain分析从图中可以看到,Extra 字段中没有 Using filesort 了,也就是不需要排序了。
而且由于(city,name) 这个联合索引本身有序,所以这个查询只需要找到满足条件的前1000条记录就可以退出了。也就是说,做了这个优化,只需要扫描1000次。
这个语句的执行流程有没有可能进一步简化呢?
之前学到过覆盖索引,我们可以再优化以下这个查询语句的执行流程。
针对这个查询,我们可以创建一个 city、name 和 age 的联合索引,对应的 SQL 语句:
alter table t add index city_user_age(city, name, age);
这时,对于 city 字段的值相同行来说,还是按照 name 字段的值递增排序的,此时的查询语句也就不需要排序了。整个语句的执行流程:
- 从索引(city,name,age) 找到第一个满足 city = ‘杭州’ 条件的记录,取出其中的 city、name 和 age 这三个字段的值,作为结果集的一部分直接返回
- 从索引(city,name,age) 取下一个记录,同样取出这三个字段的值,作为结果集的一部分直接返回
- 重复执行步骤2,直到查到第1000条记录,或者是不满足条件时循环结束
此时,可以使用explain 自行验证一下。
当然并不是说要为每个查询能使用上覆盖索引,就要把语句中涉及到的字段都建上联合索引,毕竟索引还是有维护代价的,这需要权衡。
网友评论