scrapy 使用redisbloomfilter去重10个url后爬虫退出了

问题描述

请求scrapy有没有地方设置了重复请求几次或其他策略就停止程序?

clipboard.png

阅读 1.5k
1 个回答

知道了,因为程序当前程序产生的所有请求URL都已经重复了,没有新的URL可以请求了。

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题