mongodb千万级写入怎么优化

从mysql数据库通过java程序导入单表1300w到mongodb,花了大概50分钟,前1000w条数据中每100w条大概要3分钟,之后的300多w条就差不多每100w条要5到6分钟,之后再从其他的mysql表里面导入数据就会越来越慢,请问可以从那些方面可以优化mongodb的写入操作?
这是我记录的花费时间
图片描述

可以确定的是如果只在mysql里面遍历读取这1300w条数据,花费时间是10分钟左右。

阅读 6.4k
3 个回答

mysql两亿数据最多半小时,大哥你是单条写入还是整个文本导啊?

检查一下MongoDb操作时是否存在一些数据检查等随数据量增大而变慢的操作。既然是导入,数据可信度应该来说是很高的,可以剔除一下不必要的数据检查,索引也可以先不建,等导入之后再建立。

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题