数据量1W左右,每分钟更新一次
目前用的方案:
队列每200条执行一次
foreach ($r as $value) {
$updatedata[] = [
"code" => $value['code'],//这个是主键
"value" => $value['value']
];
}
$fund = new Model;
$rrr = $fund->saveAll($updatedata);
应当如何改进
假设每条数据1Kb,
1W*1Kb/1024≈10Mb
。不知道你都有哪些查询,如果可以的话,直接存Redis就好了。
另外这点数据量,MySQL实时更新能有啥问题。
所谓
最佳方案
需要有个衡量标准,比如硬件有限的情况下如何满足需求,比如查询要求近实时,比如对当前方案修改最小,比如不额外引入其他中间件。另外
如何改进
需要有当前遇到的问题?如果没有那就没必要