mysql百万级记录分页查询优化方式有几种方式?

(1)优化方式有几种?
mysql百万级记录分页查询优化方式有几种?,最好能附上实验结果,万分谢谢!

(2)为什么子查询优化用了where条件,会导致数据失去连续性?

对于有大数据量的mysql表来说,使用LIMIT分页存在很严重的性能问题。

查询从第1000000之后的30条记录:

SQL代码1:平均用时6.6秒 SELECT * FROM `cdb_posts` ORDER BY pid LIMIT 1000000 , 30

SQL代码2:平均用时0.6秒 SELECT * FROM `cdb_posts` WHERE pid >= (SELECT pid FROM `cdb_posts` ORDER BY pid LIMIT 1000000 , 1) LIMIT 30

因为要取出所有字段内容,第一种需要跨越大量数据块并取出,而第二种基本通过直接根据索引字段定位后,才取出相应内容,效率自然大大提升。

可以看出,越往后分页,LIMIT语句的偏移量就会越大,两者速度差距也会越明显。

子查询优化法
先找出第一条数据,然后大于等于这条数据的id就是要获取的数据
缺点:数据必须是连续的,可以说不能有where条件,where条件会筛选数据,导致数据失去连续性

阅读 8.3k
1 个回答

第二种写法的外层是按照数据存储的物理地址顺序检索到30条就结束查询,并不会排完序再选择30条,所以是无序的,只需要加个排序即可SELECT * FROM cdb_posts WHERE pid >= (SELECT pid FROM cdb_posts ORDER BY pid LIMIT 1000000 , 1) ORDER BY pid LIMIT 30

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题
宣传栏