这天风和日丽,小a正在工位上苦练摸鱼技术,
突然接到产品的☎️,又来需求?
只听到产品又开始口若黄河:我需要要查询到city是”上海”的所有人的name,并且还要按name排序返回前1000人的name、age。
小a急忙正襟危坐,从一堆库表中翻出需要的表,抽出其建表语句:
看看表结构,再看看产品的需求
感觉很容易,随手SQL这么一写:
诶,这语句看着简单而朴实,一个需求好像就完美解决了。但为了显示自己强大的性能优化水平,考虑到要避免全表扫描,于是又给 city 字段加索引。建完索引,自然还需要使用explain验证一下:
1 | explain select city, name, age from citizen where city = '上海' order by name limit 1000; |
1 | +----+-------------+---------+------------+------+---------------+------+---------+------+------+----------+-----------------------------+ |
Extra字段的 Using filesort 表示需要排序,MySQL会给每个线程分配一块内存用于排序,称为sort_buffer。
这时魔鬼产品突然凑过来问:给我看看你代码咋写的,你这么写你真的懂MySQL 底层怎么执行order by的吗?小a突然惊醒,还真没想过这些。
产品经理冷笑道:你知道你的 city 索引长啥样吗?我自己建立的,我咋可能不知道!随手直接画出
city字段的索引示意图
产品,你可好好看了,这里 id_x ~ id_(x+n) 的数据都满足city=’上海’。
产品:那你倒是说说这条SQL的执行流程?不知道了吧,我来告诉你吧:
- 初始化sort_buffer,确定放入
name、city、age三字段 - 从索引
city找到第一个满足city='上海'条件的主键id,即id_x - 到id主键索引取出整行,取三个字段的值,存入sort_buffer
- 从索引city取下一个记录的主键id
- 重复3、4,直到city的值不满足查询条件,即主键
id_y - 对sort_buffer中数据按
name做快排 - 取排序后结果的前1000行返回给客户端
这就是全字段排序,执行流程如下:
按name排序 这一操作可能在内存中完成,也可能需要外部排序,而这就取决于
排序所需内存
参数sort_buffer_size MySQL为排序开辟的内存(sort_buffer)的大小。若要排序的数据量小于sort_buffer_size,排序就在内存中完成。若排序数据量太大,内存放不下,则得利用磁盘临时文件辅助排序。
产品又开始炫技了,又问到:你知道 一条排序语句何时才会使用临时文件 吗?这?这还真又触及到我的知识盲区了!

1 | MySQL> SET optimizer_trace='enabled=on'; |
查看 OPTIMIZER_TRACE 结果中的 number_of_tmp_files 字段确认是否使用临时文件。
"filesort_execution": [], "filesort_summary": { "rows": 4000"examined_rows": 4000,"number_of_tmp_files": 12,"sort_buffer_size": 32664 ,
1 | "sort_mode": "<sort_key, packed_additional_fields>" |
number_of_tmp_files 排序过程中使用的临时文件数。为啥需要12个文件?内存放不下时,就需要使用外部排序,外部排序一般使用归并排序。MySQL将需要排序的数据分成12份,每一份单独排序后存在这些临时文件中。然后把这12个有序文件再合并成一个有序的大文件。
若 sort_buffer_size 超过需排序的数据量大小,则 number_of_tmp_files 就是0,即排序可直接在内存完成。
否则就需要放在临时文件中排序。sort_buffer_size越小,需要分成的份数越多,number_of_tmp_files的值就越大。
1 | examined_rows 参与排序的行数。测试表有4000条满足city='上海’的记录,所以该参数为4000。 |
整个执行过程只扫描了
4000行。
注意,为了避免对结论造成干扰,我把internal_tmp_disk_storage_engine设置成MyISAM。否则, SELECT @b-@a 的结果会显示为4001。因为查询OPTIMIZER_TRACE表时,需要用到临时表,而internal_tmp_disk_storage_engine的默认值是InnoDB。若使用InnoDB,把数据从临时表取出时,会让Innodb_rows_read的值加1。
1 | 我惊奇地望着产品,像瞻仰伟人一般,不如你继承我的代码吧,让我来做产品?  |
rowid排序
上面的算法,只是对原表数据读了一遍,剩下的操作都是在sort_buffer和临时文件中执行。但这就存在问题:若查询要返回的字段很多,那么sort_buffer要放的字段数就会很多,内存里能够同时放下的行数就会变少,就要分成很多临时文件,序性能就会很差。 所以若单行很大,该方法的效率可不够行哦。
产品大大又开始发难,那么你知道若MySQL认为排序的单行长度太大,它又会干啥吗?
1 | 现在修改个参数,让MySQL采用另外一种算法。 `SET max_length_for_sort_data = 16;` max_length_for_sort_data MySQL用于控制用于排序的行数据的长度。若单行的长度超过该值,MySQL就认为单行太大,要换个算法。 |
city、name、age
三字段的定义总长度36,那你看我把max_length_for_sort_data设为16会咋样。
新的算法放入sort_buffer的字段,只有要排序的列(即name字段)和主键id。但这时,排序的结果就因少了
和age
字段值,不能直接返回了,整个执行流程变成如下:
初始化sort_buffer,确定放入两个字段,即
和id
从
1 | 找到第一个满足city='上海’条件的主键id,也就是图中的id_x |
到id取出整行,取name、id这两个字段,存入sort_buffer
从
取下一个记录的主键id
1 | 重复步骤3、4直到不满足city='上海’,也就是图中的id_y |
对sort_buffer中的数据按照字段name进行排序
遍历排序结果,取前1000行,并按照id的值回到原表中取出city、name和age三个字段返回给客户端。
听到这里,感觉明白了一些:产品你别急,你看我画下这个
执行过程的示意图,看看对不对?
你看这个和你之前画的全字段排序示意图,其实就是多访问了一次表citizen的主键索引,即step7。
这时查看rowid排序的OPTIMIZER_TRACE结果,看看和之前的不同之处在哪里
"number_of_tmp_files": 10,"sort_buffer_size": 32728 , "sort_mode": "<sort_key, rowid>" ```sql
1 | SELECT @b-@a |
1 | 结果变成5000 因为这时除了排序过程,在排序完成后,还要根据id去原表取值。由于语句是limit 1000,因此会多读1000行。 |
1 | | 1 | SIMPLE | citizen | NULL | ref | city,name | name | 51 | const | 4000 | 100.00 | Using index condition | |
ALTER table t add index city_user_age(city, name, age);
1 |
这时,对于city字段的值相同的行来说,还是按照name字段的值递增排序的,此时的查询语句也就不再需要排序了。这样整个查询语句的执行流程就变成了:
从索引(city,name,age)找到第一个满足city='上海’条件的记录,取出其中的city、name和age这三个字段的值,作为结果集的一部分直接返回
从索引(city,name,age)取下一个记录,同样取出这三个字段的值,作为结果集的一部分直接返回
重复2,直到查到第1000条记录或不满足city='上海'
引入 `(city,name,age)` 联合索引,查询语句的执行流程 
explain查看 `(city,name,age)` 联合索引查询语句的执行计划
1 |
| 1 | SIMPLE | citizen | NULL | ref | city,name,age | age | 51 | const | 4000 | 100.00 | Using where; Using index |
``` 1 row in set, 1 warning (0.00 sec) Extra字段里面多了“Using index”,说明使用了覆盖索引,性能上会快很多。但这并非说要为了每个查询能用上覆盖索引,就要把语句中涉及的字段都建上联合索引,毕竟索引也很占空间,而且修改新增都会导致索引改变,还是具体业务场景具体分析。
本文标题: 和产品争论MySQL底层如何实现order by的,惨败
发布时间: 2019年02月27日 00:00
最后更新: 2025年12月30日 08:54
原始链接: https://haoxiang.eu.org/50797ac1/
版权声明: 本文著作权归作者所有,均采用CC BY-NC-SA 4.0许可协议,转载请注明出处!

