您的位置:首页 > 数据库 > MySQL

MySQL查询优化:连接查询排序limit(join、order by、limit语句)

2018-02-15 14:51 1306 查看
两张表连接查询并limit,SQL效率很高,但是加上order by之后,语句的执行时间变得巨长,效率巨低

例:连接两张表查询出前10个people,按tname排序

select * from t_people p left join t_team t on p.team_id=t_id
order by p.pname limit 1;


这是第一反应写出的SQL,通俗易懂。

执行上面那条SQL语句,执行了好几次,耗时在3秒左右。

再把以下的2条语句对比一下:

1:把order by子句去掉

select * from t_people p left join t_team t on p.team_id=t_id
limit 10


耗时为0.00秒

2:还是使用order by,但是把连接t_team表去掉

select * from t_people p order by p.pname limit 10


耗时0.15秒左右

对比发现[语句①]的效率巨低。

为什么效率这么低呢。[语句②]和[语句③]执行都很快,[语句①]不过是二者的结合。如果先执行[语句③]得到排序好的10条people结果后,再连接查询出各个people的team,效率不会这么低。那么只有一个解释:MySQL先执行连接查询,再进行排序。

解决方法:如果想提高效率,就要修改SQL语句,让MySQL先排序取前10条再连接查询。

SQL语句:

select * from(select * from t_people p order by p.pname
limit 10)p left join t_team t on p.team_idt.id limit 10;


[语句④]和[语句①]功能一样,虽然有子查询,虽然看起来很别扭,但是效率提高了很多,它的执行时间只要0.16秒左右,比之前的[语句①] (耗时3秒) 提高了20倍。

这两个表的结构很简单,如果遇到复杂的表结构…我在实际开发中就碰到了这样的问题,使用[语句①]的方式耗时80多秒,但使用[语句④]只需1秒以内。

用存储过程在t_team表中生成1000条数据,在t_people表中生成100000条数据

CREATE PROCEDURE createdata()
BEGIN
DECLARE i INT;
START TRANSACTION;
SET i=0;
WHILE i<1000 DO
INSERT INTO t_team VALUES(i+1,CONCAT('team',i+1));
SET i=i+1;
END WHILE;
SET i=0;
WHILE i<100000 DO
INSERT INTO t_people VALUES(i+1,CONCAT('people',i+1),i%1000+1);
SET i=i+1;
END WHILE;
COMMIT;
END


参考博客:http://www.jb51.net/article/35775.htm
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  mysql 优化