快捷搜索: 王者荣耀 脱发

MYSQL百万级以上分页LIMIT速度太慢的优化方法

在MYSQL中LIMIT可以实现快速分页,但是当表中数据到了百万级别以上时就会变得非常慢,甚至造成服务器宕机。 //速度很快 SELECT * FROM table LIMIT 0,10; //速度很慢 SELECT * FROM table LIMIT 500000,10;

LIMIT 500000,10的含义:扫描满足条件的500010行,扔掉前面的500000行,返回最后的10行,问题就在这里。 LIMIT 10 仅仅扫描10行。

日常分页SQL语句 SELECT id,uname,content FROM users ORDER BY id ASC LIMIT 500000,10; 扫描500010行。

如果记录了上次的最大ID SELECT id,uname,content FROM users WHERE id>499990 ORDER BY id ASC LIMIT 10; 扫描10行。 备注:当一个数据库表过于庞大,LIMIT offset,length中的offset值过大,则SQL查询语句会非常缓慢。

解决方案一:自连表查询 SELECT * FROM A表 AS a JOIN ( SELECT id FROM A表 LIMIT offet,size) AS b ON b.id=a.id;

解决方案二:子查询(当偏移1000以上使用子查询法可以有效的提高性能) 1、如果limit语句的offset较大,你可以通过传递pk键值来减小offset = 0,这个主键最好是int类型并且auto_increment。 SELECT * FROM users WHERE id > 2345670 ORDER BY id LIMIT 0, 10; 等价于: SELECT * FROM users WHERE id >= (SELECT id FROM users ORDER BY id LIMIT 234567, 1) LIMIT 0, 10; 先找出第一条数据,然后大于等于这条数据的id就是要获取的数据 缺点:数据必须是连续的,可以说不能有WHERE条件,WHERE条件会筛选数据,导致数据失去连续性。

经验分享 程序员 微信小程序 职场和发展