这是spider中start_requests的源码,为什么scrapy要默认不过滤重复的网页呢?这个不是无用功吗,重复爬取页面不是会造成爬取效率很差
1 回答1.8k 阅读
2 回答5.4k 阅读
3.7k 阅读
2 回答9.9k 阅读✓ 已解决
2 回答5.8k 阅读✓ 已解决
3 回答12.4k 阅读✓ 已解决