存储大型网络爬行数据的最佳方法
我正在为各种社交网站使用 python 网络爬虫,并试图确定存储我屏幕抓取的大量数据(主要是 xml/文本数据)的最佳方式。您能否建议任何合适且易于访问的数据库?与 python 配合良好的东西会很好。此外,我想稍后返回并解析数据。
I am using a python web crawler for various social networking sites and am trying to determine the best way to store large amounts of data (mostly xml/text data) that I screen scrape. Could you suggest any databases that would be appropriate and easily accessible. Something that works well with python would be nice. Additionally, I would want to go back and parse the data at a later date.
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论