蜂巢的分区策略

发布于 2025-01-23 18:42:03 字数 158 浏览 0 评论 0原文

我有一个每月的Spark Job来处理数据并保存到Hive/Impala表中(文件存储格式为parquet)。表的粒度是每日数据,但是此工作的源数据也是每月工作的。

我正在尝试查看如何最好地划分桌子。我正在考虑将桌子底座划分一个月。想知道有人看到这种方法有任何问题,还是有其他建议?谢谢。

I have a monthly Spark job that process data and save into Hive/Impala tables (file storage format is parquet). The granularity of the table is daily data, but source data for this job also comes monthly job.

I'm trying to see how to best partition the table. I'm thinking of partitioning the table base a month key. Wondering if anyone sees any problems with this approach, or have other suggestions? Thanks.

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文