pyspider一下生成几千条链接爬取是否合适

发布于 2022-09-04 20:39:31 字数 588 浏览 13 评论 0

如题,在on_start()的时候直接调用key_word_rank_page()生成几千条链接,并调用self.crawl。在调试的时候没问题,但是实际运行的时候代码跑一会就不动了,数据库就没有数据写入了,taskdb库也看到这个工程的task条数没有增长

    @every(minutes=24 * 60)
    def on_start(self):
        self.key_word_rank_page()
        pass
    
    
    
    def key_word_rank_page(self):
        i = 0; page 参数从0开始的
        while i <= 3000: 
            keywordrank_url = "https://www.douban.com/more/getmore.html?page=%s&genreIds="%(i)
            self.crawl(url=keywordrank_url, callback=self.process_keyword) 
            
            i += 1;
        pass

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

甜扑 2022-09-11 20:39:31

你需要在web界面点开Active Tasks 看看到底卡在哪里。几千条链接一点问题都没有,几万我都干过。

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文