返回介绍

第14章 分布式爬取

发布于 2024-02-05 21:13:20 字数 443 浏览 0 评论 0 收藏 0

由于受到计算能力和网络带宽的限制,单台计算机上运行的爬虫在爬取的数据量较大时,需要耗费很长的时间。分布式爬取的思想是“人多力量大”,在网络中的多台计算机上同时运行爬虫程序,共同完成一个大型爬取任务。这一章来学习使用Scrapy框架进行分布式爬取。

Scrapy本身并不是一个为分布式爬取而设计的框架,但第三方库scrapy-redis为其拓展了分布式爬取的功能,两者结合便是一个分布式Scrapy爬虫框架。在分布式爬虫框架中,需要使用某种通信机制协调各个爬虫的工作,让每一个爬虫明确自己的任务,其中包括:

(1)当前的爬取任务,即下载+提取数据(分配任务)。

(2)当前爬取任务是否已经被其他爬虫执行过(任务去重)。

(3)如何存储爬取到的数据(数据存储)。

scrapy-redis利用Redis数据库作为多个爬虫的数据共享实现以上功能,接下来我们学习如何使用scrapy-redis进行分布式爬取。

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文