pyspider更新tag后执行的脚本依然为旧脚本

新手上路,请多包涵

更新TAGS之后跑的脚本依然为老脚本,所传参数proxy依然为之前proxy

阅读 3k
2 个回答

更新itag后 脚本不会立即跟新,在程序内存中和队列流程中的task会跑完,新的task菜会使用新的脚本

取决于你 proxy 是怎么传入的,如果是 self.crawl 设置的,任务在创建后就无法修改了(除非你找出 url force_update)
不过你可以在 crawl_config 中设置代理,在某个版本之后的 pyspider 中,crawl_config 的设置是运行时生效的,所以修改脚本就能应用到已经产生的任务上去。

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进