用php处理一个超大sqlite文件(几十G),有什么好方法?
处理的时候 直接死了~~
震惊!这么大的数据量居然还用sqlite。
再说你一次性把几十G读到内存,除非你的内存真的有几十G,否则一定爆内存。
建议尝试分割这个数据库或转换成其他类型的数据库处理。
可以试试souce
1.打开cmd
2.进入到MySQL的bin文件夹 (C:softwarephpStudyphpStudyMySQLbin)
如果是在mamp下,则打开终端(Terminal),输入
/Applications/MAMP/Library/bin/mysql -uroot -p
3.输入命令:mysql -u root -p
4.输入密码:root(MySQL的密码)
5.输入命令(采用souce方法导入):. C:/software/phpStudy/phpStudy/MySQL/bin/a.sql(假设你的sql文件为a.sql,它放在bin文件夹下)
2 回答1.6k 阅读✓ 已解决
1 回答1.4k 阅读✓ 已解决
2 回答966 阅读✓ 已解决
2 回答824 阅读✓ 已解决
2 回答1k 阅读
1 回答1.1k 阅读
1 回答920 阅读
这么大的文件PHP肯定是处理不了的,PHP处理文件首先要把它读到内存中,而每个脚本能够使用的内存跟PHP配置文件中的memory_limit是相关的。只要你内存足够大,你可以设置它为不受限制,就能够使用系统的最大内存。
推荐的解决方法是先把文件切小,通过shell程序比如sed把文件按一定大小(大小根据你的PHP内存大小确定)切割成若干个小文件,然后再用PHP处理。