前言
让我来做一个大胆的猜测。下面的两个故事之一会和你的经历有些相似。
你与Scrapy的第一次相遇是在网上搜索类似“Web scraping Python”的内容时。你快速对其进行了浏览,然后想“这太复杂了吧……我只需要一些简单的东西。”接下来,你使用Requests库开发了一个Python脚本,并且挣扎于Beautiful Soup中,但最终还是完成了很酷的工作。它有些慢,所以你让它整夜运行。你重新启动了几次,忽略了一些不完整的链接和非英文字符,到早上的时候,大部分网站已经“骄傲地”存在你的硬盘中了。然而难过的是,不知什么原因,你不想再看到自己写的代码。当你下一次再想抓取某些东西时,则会直接前往scrapy.org,而这一次文档给了你很好的印象。现在你可以感受到Scrapy能够以优雅且轻松的方式解决了你面临的所有问题,甚至还考虑到了你没有想到的问题。你不会再回头了。
另一种情况是,你与Scrapy的第一次相遇是在进行网络爬取项目的研究时。你需要的是健壮、快速的企业级应用,而大部分花哨的一键式网络爬取工具无法满足需求。你希望它简单,但又有足够的灵活性,能够让你为不同源定制不同的行为,提供不同的输出类型,并且能够以自动化的形式保证24/7可靠运行。提供爬取服务的公司似乎太贵了,你觉得使用开源解决方案比固定供应商更加舒服。从一开始,Scrapy就像一个确定的赢家。
无论你是出于何种目的选择了本书,我都很高兴能够在这本专注于Scrapy的图书中遇到你。Scrapy是全世界爬虫专家的秘密。他们知道如何使用它以节省工作时间,提供出色的性能,并且使他们的主机费用达到最低限度。如果你没有太多经验,但是还想实现同样的结果,那么很不幸的是,Google并没有能够帮到你。网络上大多数Scrapy信息要么太简单低效,要么太复杂。对于那些想要了解如何充分利用Scrapy找到准确、易理解且组织良好的信息的人们来说,本书是非常有必要的。我希望本书能够帮助Scrapy社区进一步发展,并使其得以广泛应用。
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论