thinkphp+mysql批量更新数据(同时保证读取)的最佳方案?

数据量1W左右,每分钟更新一次
目前用的方案:
队列每200条执行一次

 foreach ($r as $value) {
    $updatedata[] = [
                "code" => $value['code'],//这个是主键
                "value" => $value['value']
            ];
}

$fund = new Model;
$rrr = $fund->saveAll($updatedata);

应当如何改进

阅读 3k
1 个回答

假设每条数据1Kb,1W*1Kb/1024≈10Mb

不知道你都有哪些查询,如果可以的话,直接存Redis就好了。


另外这点数据量,MySQL实时更新能有啥问题。


所谓最佳方案需要有个衡量标准,比如硬件有限的情况下如何满足需求,比如查询要求近实时,比如对当前方案修改最小,比如不额外引入其他中间件。

另外如何改进需要有当前遇到的问题?如果没有那就没必要

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题