需要将多个蜂巢分区合并为Spark中的一个分区

发布于 2025-01-22 19:11:17 字数 748 浏览 0 评论 0原文

我在蜂巢桌上有大约50个分区。我需要将每组分区合并为一个分区。我尝试使用重命名分区命令。但是获取错误消息。

需要帮助将多个蜂巢分区合并为Spark中的一个分区

 ALTER TABLE db.table PARTITION (appname='SCORING',indicator='segment_id:1|process_date:20220417') RENAME TO PARTITION (appname='SCORING',indicator='process_date:20220417')

 ALTER TABLE db.table PARTITION (appname='SCORING',indicator='segment_id:3|process_date:20220417') RENAME TO PARTITION (appname='SCORING',indicator='process_date:20220417')

 ALTER TABLE db.table PARTITION (appname='SCORING',indicator='segment_id:4|process_date:20220417') RENAME TO PARTITION (appname='SCORING',indicator='process_date:20220417')

org.apache.hadoop.hive.ql.metadata.hiveException:无法重命名分区。分区已经存在:db.table

I have around 50 partitions in hive table. I need to merge each set of partitions into one partition. I tried to use rename partition command. But getting error message.

Need help in merging multiple hive partitions into one partition in spark

 ALTER TABLE db.table PARTITION (appname='SCORING',indicator='segment_id:1|process_date:20220417') RENAME TO PARTITION (appname='SCORING',indicator='process_date:20220417')

 ALTER TABLE db.table PARTITION (appname='SCORING',indicator='segment_id:3|process_date:20220417') RENAME TO PARTITION (appname='SCORING',indicator='process_date:20220417')

 ALTER TABLE db.table PARTITION (appname='SCORING',indicator='segment_id:4|process_date:20220417') RENAME TO PARTITION (appname='SCORING',indicator='process_date:20220417')

org.apache.hadoop.hive.ql.metadata.HiveException: Unable to rename partition. Partition already exists:db.table

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

酒与心事 2025-01-29 19:11:17

您可以使用 sql语句通过

在Spark ProgramMign语言中,还有更多更改分区的工具。

您可以使用 partitionby 在Spark中重新分配。

或者,您可以编写选择以获取分区数据。然后,您可以使用 cocee或coalece或repartition 创建1个分区。

You can do this by using a sql statement distribute by.

In spark programmign language there are more tools to change the partitions.

You can use partitionby to repartition in spark.

or you could write a select to grab the partitioned data. Then you can use coalece or repartition to create 1 partition.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文