如何通过spark-sql删除hive表中的记录?

发布于 2025-01-14 20:35:56 字数 529 浏览 0 评论 0原文

我尝试通过spark-sql删除hive表中的记录,但失败了。下面是消息:

spark-sql> delete from jgdy
         > ;
2022-03-17 04:13:13,585 WARN conf.HiveConf: HiveConf of name hive.internal.ss.authz.settings.applied.marker does not exist
2022-03-17 04:13:13,585 WARN conf.HiveConf: HiveConf of name hive.stats.jdbc.timeout does not exist
2022-03-17 04:13:13,585 WARN conf.HiveConf: HiveConf of name hive.stats.retries.wait does not exist
Error in query: DELETE is only supported with v2 tables.

谁能告诉我如何删除?或者我需要做什么配置吗? 谢谢

I try to delete records in hive table by spark-sql, but failed. Follow is message:

spark-sql> delete from jgdy
         > ;
2022-03-17 04:13:13,585 WARN conf.HiveConf: HiveConf of name hive.internal.ss.authz.settings.applied.marker does not exist
2022-03-17 04:13:13,585 WARN conf.HiveConf: HiveConf of name hive.stats.jdbc.timeout does not exist
2022-03-17 04:13:13,585 WARN conf.HiveConf: HiveConf of name hive.stats.retries.wait does not exist
Error in query: DELETE is only supported with v2 tables.

Who can show me how to delete? Or is there any configurations I need to do?
thanks

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文