蜂巢的分区策略
我有一个每月的Spark Job来处理数据并保存到Hive/Impala表中(文件存储格式为parquet)。表的粒度是每日数据,但是此工作的源数据也是每月工作的。
我正在尝试查看如何最好地划分桌子。我正在考虑将桌子底座划分一个月。想知道有人看到这种方法有任何问题,还是有其他建议?谢谢。
I have a monthly Spark job that process data and save into Hive/Impala tables (file storage format is parquet). The granularity of the table is daily data, but source data for this job also comes monthly job.
I'm trying to see how to best partition the table. I'm thinking of partitioning the table base a month key. Wondering if anyone sees any problems with this approach, or have other suggestions? Thanks.
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论