python多个爬虫,爬到一半停掉,不继续,是堵塞么?

python启动多个爬虫,有在pycharm直接运行,也有过在cmd下运行。但每次有爬多个时,会停下,不继续,就像卡在那里一样,这是不是堵塞?有什么好的解决办法么?

阅读 12.3k
5 个回答

没图你说个xx

不一定,有可能是假死。我写node也会这样。我会定期使用nodejs去touch一个文件,这样可以更新文件的最后访问时间。如果太长没访问,我的另一个进程会重启nodejs进程

如果cmd下,有可能是cmd获得了focus,你试下ctrl+c,看是否继续进行。

尽量给点反应时间,用sleep休息一下

爬虫卡住得因素很多啊 首先网络波动 其次代理失效或者代理慢 再其次访问速度被限制
你完全可以写个心跳线程或者logging

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题