php写的爬虫报内存不足

具体的场景:php从网站列表上抓取数据,然后直接插入mysql数据库,使用cli模式运行,一次可能要插入上万条数据
我之前的代码是这样的:

ini_set('memory_limit', '512M');
$con = mysqli_connect(''');
for(...) {
//爬虫抓取代码省略
mysqli_query($con,'抓取后生成的insert语句');
}

这样差不多半天就会报Allowed memory size of 536870912 bytes exhausted (tried to allocate 1542571 bytes)
PS:如果不执行mysql插入操作,而直接将sql语句file_put_contents到一个文件中,那是不会报错的,所以排除爬虫代码的问题

现在我把mysql的插入语句封装成一个方法:

function execute($query)
{
    $mysqli = new mysqli(...);
    $mysqli->query('set names utf8mb4');
    $mysqli->query($query);
    $mysqli->close();
}

不知道还会不会发生这个问题呢?
各位有什么好办法么?

阅读 4.2k
3 个回答

你目前的做法是上万次插入上万条数据,而不是一次插入上万条数据。
From

INSERT INTO tbl_name (a,b,c) VALUES (1,2,3);
INSERT INTO tbl_name (a,b,c) VALUES (4,5,6);
INSERT INTO tbl_name (a,b,c) VALUES (7,8,9);

To

INSERT INTO tbl_name
    (a,b,c)
VALUES
    (1,2,3),
    (4,5,6),
    (7,8,9);

数据库插入操作改为批量提交方式

$sql = array(); 
foreach( $data as $row ) {
    $sql[] = '("'.mysql_real_escape_string($row['text']).'", '.$row['category_id'].')';
}
mysql_query('INSERT INTO table (text, category) VALUES '.implode(',', $sql));

之前做个一个类似的功能,规模是大几十万条
我是用的web方式去执行,在for{}中判断一个条件,比如达到万条后跳转回本页面,把n*10000这个参数传过去。

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题