32位Python遭遇阻塞
在最近编写的一个爬虫程序中,当访问过的url过多时程序就会运行到一半自动卡主不动了。不知道原因何在。在爬虫程序中,为了加快运行速度,开辟了四条进程同时索取URL。由于是刚刚接触Python不久。。因此实在找不到其他原因。现在怀疑可能是内存占用已满的缘故。进程资源使用情况截图如下:
这就是卡住的时候的进程资源占用情况
多进程访问的代码如下:
`temp_html_dict = {}
p = Pool(4)
response_dict_list = p.map(open_url, url_list)
p.close()
p.join()`
程序在访问的URL数量不是很多的时候是可以正常运行完的。由于实在不知道从哪里查起,因此不太清楚到底要给出什么有效信息。如果还需要其他信息,可以随时补充。
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
io密集型,最好不要用多进程,你可以用下gevent。