- 本书赞誉
- 前言
- 目标读者
- 不适合阅读本书的读者
- 本书结构
- 什么是数据处理
- 遇到困难怎么办
- 排版约定
- 使用代码示例
- 致谢
- 第 1 章 Python 简介
- 第 2 章 Python 基础
- 第 3 章 供机器读取的数据
- 第 4 章 处理 Excel 文件
- 第 5 章 处理 PDF 文件 以及用 Python 解决问题
- 第 6 章 数据获取与存储
- 第 7 章 数据清洗:研究、匹配与格式化
- 第 8 章 数据清洗:标准化和脚本化
- 第 9 章 数据探索和分析
- 第 10 章 展示数据
- 第 11 章 网页抓取:获取并存储网络数据
- 第 12 章 高级网页抓取:屏幕抓取器与爬虫
- 第 13 章 应用编程接口
- 第 14 章 自动化和规模化
- 第 15 章 结论
- 附录 A 编程语言对比
- 附录 B 初学者的 Python 学习资源
- 附录 C 学习命令行
- 附录 D 高级 Python 设置
- 附录 E Python 陷阱
- 附录 F IPython 指南
- 附录 G 使用亚马逊网络服务
- 关于作者
- 关于封面
文章来源于网络收集而来,版权归原创者所有,如有侵权请及时联系!
6.3 数据可读性、数据清洁度和数据寿命
如果你的数据集看起来非常难以读取,还有一种可能的方法:根据第 7 章学习的内容,你可以用代码清洗数据。幸运的是,如果是计算机创建的数据,很有可能可以被计算机读取。更大的难点在于,从“真实生活”中获取数据并读入计算机。在第 5 章中我们知道, PDF 和不常见的数据文件类型很难处理,但并非不可能。
我们可以用 Python 帮我们读取难以读取的数据,但难以读取可能意味着数据来源不佳。如果是计算机生成的大型数据集,那就存在一个问题——数据库转储(database dump)的格式一直都不美观。但如果你的数据是人工生成的,而且难以读取,那可能是数据清洁度和数据有效性的问题。
你面临的另一个问题是,数据是否已经被清洗过了。通过详细询问数据是如何采集、报告并更新的,你可以判断数据是否被清洗过。你应该能够确定以下内容。
· 数据的清洁度有多高?
· 是否有人给出了统计误差率,或者修改了错误的数据条目,或者误报了数据?
· 是否会发布进一步更新,这些更新是否会发送给你?
· 数据采集过程中使用了哪些方法,如何验证这些方法?
如果你的数据源使用的是标准化的、严谨的研究和采集方法,在未来的几年里,你的清洗脚本和报告脚本可能几乎不用修改就可以重复使用。那些系统通常不会定期发生变化(变化既费钱又费时)。一旦写好了清洗脚本,你可以轻松处理下一年的数据,直接进入数据分析阶段。
除了清洁度和可读性,你还要关注数据的寿命。你要处理的数据是定期采集并更新的吗?数据发布和更新的时间计划是什么样的?了解一个机构更新数据的频率,可以让你判断在未来几年内对该数据的应用能力。
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论