文章来源于网络收集而来,版权归原创者所有,如有侵权请及时联系!
5.5 本章小结
本章深入讨论了Scrapy爬虫的内部机制。我们学习了使用FormRequest进行登录,使用Request/Response的meta属性传输变量,使用相对XPath表达式和Selector,以及使用.csv文件作为源等。
接下来,第6章会讲解如何将爬虫部署到Scrapinghub云上,第7章将继续深入Scrapy的设置。
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论