取决于你 proxy 是怎么传入的,如果是 self.crawl 设置的,任务在创建后就无法修改了(除非你找出 url force_update)不过你可以在 crawl_config 中设置代理,在某个版本之后的 pyspider 中,crawl_config 的设置是运行时生效的,所以修改脚本就能应用到已经产生的任务上去。
更新itag后 脚本不会立即跟新,在程序内存中和队列流程中的task会跑完,新的task菜会使用新的脚本