使用python scrapy框架,循环爬取URL, 每次运行一段时间后直接卡死,没有任何报错

每次运行半小时左右, 直接卡死, log里没有任何报错, 卡死的时候CPU占用率非常高

我在setting.py里设置了download timeout,不是超时的原因

ctrl-c无法正常退出, ctrl-z退出以后, 继续执行还是同样的问题, 半小时后再次卡死

阅读 5.7k
2 个回答

先TOP看看是内否过高,还是CPU过高,再找到是被哪些进程占用了
如果都是你的爬虫进程,那就得排查代码,看看是不是哪里一直未被释放

总之从各方面去排查吧

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题