mysql 如何迁移数据流较大的数据库?

数据库日积月累几个G后,从服务器A导入到服务器B
导入数据库总是失败。内存不足或者直接崩了。

请问有什么方案可以稳定的分段导入吗?

阅读 2.9k
3 个回答

几个G的数据也还好,不是特别大,直接用mysqldump应该就可以了。导入的时候只是在执行insert 语句插入数据,应该不至于会出现内存不足,程序崩溃。

我说一下我使用过得方法,题主可以尝试一下,阿里云有个DTS数据迁移,可以尝试一下,具体步骤就是先导出源库的表结构,然后把导出的表结构分成两部分,一部分是建表语句,一部分是视图,函数,触发器的语句,然后在目标库执行建表语句之后去阿里云控制台创建DTS迁移任务,等迁移完成在将刚开始导出的视图函数触发器语句执行到目标库。

目前DTS全量迁移是免费的,我已经操作过很多次,数据量几十G也很快,大概1,2个小时左右,如果有不懂的回复我就好,导出表结构用的是navicat。

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题
宣传栏