更新TAGS之后跑的脚本依然为老脚本,所传参数proxy依然为之前proxy
更新itag后 脚本不会立即跟新,在程序内存中和队列流程中的task会跑完,新的task菜会使用新的脚本
取决于你 proxy 是怎么传入的,如果是 self.crawl 设置的,任务在创建后就无法修改了(除非你找出 url force_update)不过你可以在 crawl_config 中设置代理,在某个版本之后的 pyspider 中,crawl_config 的设置是运行时生效的,所以修改脚本就能应用到已经产生的任务上去。
self.crawl
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
暂无简介
文章 0 评论 0
接受
发布评论
评论(2)
更新itag后 脚本不会立即跟新,在程序内存中和队列流程中的task会跑完,新的task菜会使用新的脚本
取决于你 proxy 是怎么传入的,如果是
self.crawl
设置的,任务在创建后就无法修改了(除非你找出 url force_update)不过你可以在 crawl_config 中设置代理,在某个版本之后的 pyspider 中,crawl_config 的设置是运行时生效的,所以修改脚本就能应用到已经产生的任务上去。