(1)优化方式有几种?
mysql百万级记录分页查询优化方式有几种?,最好能附上实验结果,万分谢谢!
(2)为什么子查询优化用了where条件,会导致数据失去连续性?
对于有大数据量的mysql表来说,使用LIMIT分页存在很严重的性能问题。
查询从第1000000之后的30条记录:
SQL代码1:平均用时6.6秒 SELECT * FROM `cdb_posts` ORDER BY pid LIMIT 1000000 , 30
SQL代码2:平均用时0.6秒 SELECT * FROM `cdb_posts` WHERE pid >= (SELECT pid FROM `cdb_posts` ORDER BY pid LIMIT 1000000 , 1) LIMIT 30
因为要取出所有字段内容,第一种需要跨越大量数据块并取出,而第二种基本通过直接根据索引字段定位后,才取出相应内容,效率自然大大提升。
可以看出,越往后分页,LIMIT语句的偏移量就会越大,两者速度差距也会越明显。
子查询优化法
先找出第一条数据,然后大于等于这条数据的id就是要获取的数据
缺点:数据必须是连续的,可以说不能有where条件,where条件会筛选数据,导致数据失去连续性
第二种写法的外层是按照数据存储的物理地址顺序检索到30条就结束查询,并不会排完序再选择30条,所以是无序的,只需要加个排序即可SELECT * FROM
cdb_posts
WHERE pid >= (SELECT pid FROMcdb_posts
ORDER BY pid LIMIT 1000000 , 1) ORDER BY pid LIMIT 30