Flink Table & sql 写入hive不成功

发布于 2022-03-04 23:21:17 字数 447 浏览 668 评论 2

flink 1.11.2版本,使用flink  table从kafka获取数据然后写入Hive表中,发现flink table确实可以从kafka中拿到数据,但是却写不进hive,没有报错,请问大佬是怎么回事呢,代码如下:

 

 

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(2

鹤舞 2022-03-08 13:24:51

遇到了同一个问题,排查后发现是要么你数据量太小了,插入的批量数据会有个hdfs的参数可以配置单文件最大大小,如果不到那个大小hdfs上的文件是processing状态的,是个隐藏文件,hive读不到,要等他关闭了文件才可以查询到

残花月 2022-03-05 19:11:28

我也遇到这个问题,奇怪啊,手动在flink插入数据到hive是可以的,但是flink自动消费kafka数据插入hive就没有数据进去,kafka中的数据确实被消费了。

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文