对抗反爬虫策略

我的问题如下:

我需要抓取一个网站的数据来做一些统计研究,但是这个网站有严格的反抓取策略。
目前看来,利用pyspider框架进行一段时间的抓取后,网站就会禁止我访问。有没有什么好的
办法使得pyspider能够抓取一段时间后停止抓取,然后隔一段时间有恢复抓取的策略呢?
阅读 6.9k
3 个回答

IP被封了是么。非常常用的爬虫封禁方法,但是策略不一定是相同的,有的是判断你请求速率,有的判断是多少时间内的请求次数。

具体的推荐你看一篇文章,里面有专门讲如果通过代理服务器IP进行突破IP封禁策略,当然其他的几个方法也非常值得研究

为何大量网站不能抓取?爬虫突破封禁的6种常见方法

新手上路,请多包涵

1.self.crawl中增加auto_crawl=True,并设置好间隔时间,比如age=60*60
这样一个小时后,pyspdier会去自动抓取网页

2.修改webui中的rate/burst,默认是1.0/3,可以改成0.2/3试试, 降低抓取频率

3.可以在crawl_config中增加proxy.

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进