比如数据库有300000条数据 现在根据条件查询符合的有30000条数据 一次取太多了可能慢或者其他问题 我想每次取10000 三次取完 这只是个例子 应该怎么实现啊?用递归吗?
告知下 谢谢!!!
还有就是如果查俩张表的数据 合并在一起 还有办法排序吗根据某个字段?
比如数据库有300000条数据 现在根据条件查询符合的有30000条数据 一次取太多了可能慢或者其他问题 我想每次取10000 三次取完 这只是个例子 应该怎么实现啊?用递归吗?
告知下 谢谢!!!
还有就是如果查俩张表的数据 合并在一起 还有办法排序吗根据某个字段?
个人建议当你要查找后面的分块的时候,用where
条件而不是直接limit 100000 , 100000
:
二者区别举例如下:
//这个是第一种,取第20w开始的10w条数据
select * from table limit 100000 , 100000 order by id
//这是第二种取法
select * from table where id > 100000 limit 100000 order by id
因为mysql用limit越往后,排序之后取后面的越慢
连表查询
例如:SELECT a.* from tableA as a, tableB as b where a.id = b.id order by a.id desc limit 0,10000";
你可以先select count(1) from table where 条件。看看一共有多少数据。大于N条的时候,
你再select * from table limit m,n
分页查询
2张表的话就select * from table1 union all select * form table2 order by 某个字段
。注意查询的列数量要一样。最好类型也一样
假设表id均匀分布的情况下,可以利用ID的区间来分段查询数据
//每次计划读取的数据条数
$max_per_size = 10000;
//找到符合条件的最小ID和最大ID
$sql = "SELECT min(id),max(id) AS max_id AS num FROM `table` WHERE xx='xx'";
$stmt = $pdo->prepare($sql);
$stmt->execute();
$res = $stmt->fetch(PDO::FETCH_ASSOC);
//符合条件的最大ID
$max_id = $res['max_id'];
//符合条件的最小ID
$min_id = $res['min_id'];
$times = ceil(($max_id - $min_id + 1) / $max_per_size);
//第一次的ID区间
$current_min_id = $min_id;
$current_max_id = $min_id + $max_per_page;
for($i = 0; $i<$times; $i++) {
//生成SQL语句
$sql = "SELECT * FROM `table` WHERE xx='xx' AND (id>= {$current_min_id} AND id <= {$current_max_id})";
//得到数据之后的操作
//.........
//重新计算下一次的ID区间
$current_min_id = $current_max_id + 1;
$current_max_id = $current_max_id + $max_per_page;
if ($current_max_id > $max_id) {
$current_max_id = $max_id;
}
}
2 回答3.1k 阅读✓ 已解决
3 回答1.6k 阅读✓ 已解决
2 回答1.2k 阅读✓ 已解决
2 回答1.4k 阅读✓ 已解决
2 回答1.3k 阅读✓ 已解决
1 回答1.4k 阅读✓ 已解决
1 回答1k 阅读✓ 已解决
谢邀,对于数据量较大的结果集,我目前一般采用以下两种方式处理。采用这两种方式处理的目的就是:一是减少数据集获取时带宽资源的占用,二是减少程序对结果集处理时内存的使用。
分块,就是题主的思路
游标,按行读取返回