pyspider更新tag后执行的脚本依然为旧脚本
更新TAGS之后跑的脚本依然为老脚本,所传参数proxy依然为之前proxy
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
更新TAGS之后跑的脚本依然为老脚本,所传参数proxy依然为之前proxy
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
接受
或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
发布评论
评论(2)
更新itag后 脚本不会立即跟新,在程序内存中和队列流程中的task会跑完,新的task菜会使用新的脚本
取决于你 proxy 是怎么传入的,如果是
self.crawl
设置的,任务在创建后就无法修改了(除非你找出 url force_update)不过你可以在 crawl_config 中设置代理,在某个版本之后的 pyspider 中,crawl_config 的设置是运行时生效的,所以修改脚本就能应用到已经产生的任务上去。