scrapy-redis的dupefilter的数据如何重置或者清空呢

新手上路,请多包涵

使用scrapy-redis蜘蛛爬过以后,再爬就无法爬了。如果给蜘蛛改个名字,就可以重新爬取,如果改回原来的名字就又开始了去重机制,虽然需要dupefilter,但是如果调试中生成一些数据,想重新爬取的话,如何解决这个问题呢。

如何删除dupefilter之前记录的爬过的url数据呢。

阅读 6.6k
3 个回答
新手上路,请多包涵

已解决
挺难得等了好几天没人回复

新手上路,请多包涵

我也遇到了同样的问题,还是你上面说的话给了我思路。我改了一下蜘蛛名字就可以用了。然后就发现redis中保存了爬虫名字的key,删除这个key就行了。图片描述

SCHEDULER_FLUSH_ON_START = True
在设置里面可以添加这一句就可以,自动清理redis里面的key

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题