用selenium爬取网站,一段时间后selenium的浏览器打开链接就403报错,但是用别的浏览器就可以正常打开?

情况:
我用selenium操作页面,selenium启动的浏览器是火狐的一个版本,我自用的是火狐的另一个版本和谷歌浏览器。

然后现在抓取一段时间后selenium启动浏览器打开链接的都会报403,但是我用别的浏览器能打开。

同时,我做了测试,用selenium启动IE浏览器,还是不能打开。

想请教SF的各位,这个是因为什么原因呢?是因为selenium的内部操作有别于人工使用浏览器吗?其中可能的反爬虫策略是什么呢?如何破解呢?

阅读 6.6k
1 个回答

是不是没有做WebDriverWait

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题