数据库日积月累几个G后,从服务器A导入到服务器B
导入数据库总是失败。内存不足或者直接崩了。
请问有什么方案可以稳定的分段导入吗?
我说一下我使用过得方法,题主可以尝试一下,阿里云有个DTS数据迁移,可以尝试一下,具体步骤就是先导出源库的表结构,然后把导出的表结构分成两部分,一部分是建表语句,一部分是视图,函数,触发器的语句,然后在目标库执行建表语句之后去阿里云控制台创建DTS迁移任务,等迁移完成在将刚开始导出的视图函数触发器语句执行到目标库。
目前DTS全量迁移是免费的,我已经操作过很多次,数据量几十G也很快,大概1,2个小时左右,如果有不懂的回复我就好,导出表结构用的是navicat。
6 回答3.4k 阅读✓ 已解决
3 回答1.7k 阅读✓ 已解决
4 回答2k 阅读
2 回答1.2k 阅读✓ 已解决
2 回答1.4k 阅读✓ 已解决
2 回答1.3k 阅读✓ 已解决
2 回答2.5k 阅读
几个G的数据也还好,不是特别大,直接用mysqldump应该就可以了。导入的时候只是在执行insert 语句插入数据,应该不至于会出现内存不足,程序崩溃。