mysql大数据存储

目前业务有些变化, 在文章区每天会有100W的数据量增长(前期都是单表设计的),现在对于数据的读取与写入都有变慢,从网上了解到有 mysql 分区 、 分表 、 分库的思想 , 但是没有具体实施方案, 请问大家有具体的实施方案吗?

阅读 4.1k
3 个回答

不建议分区。这个比较坑。难以维护。分表比分区更适合。那分表的策略以用户账号来划分。这个帖子可以分为从0到N-1张分表。用户账户的首字母或者尾字母可以先转成ASCII码值设为num,然后再模除以%。
select * from table_num%N
分库,可以做主从库,主库负责写,从库负责读。读写分离。

每天100万的发帖量?

这么大的增量表再怎么拆,估计也够呛。

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题