Flink Table & sql 写入hive不成功
flink 1.11.2版本,使用flink table从kafka获取数据然后写入Hive表中,发现flink table确实可以从kafka中拿到数据,但是却写不进hive,没有报错,请问大佬是怎么回事呢,代码如下:
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(2)
遇到了同一个问题,排查后发现是要么你数据量太小了,插入的批量数据会有个hdfs的参数可以配置单文件最大大小,如果不到那个大小hdfs上的文件是processing状态的,是个隐藏文件,hive读不到,要等他关闭了文件才可以查询到
我也遇到这个问题,奇怪啊,手动在flink插入数据到hive是可以的,但是flink自动消费kafka数据插入hive就没有数据进去,kafka中的数据确实被消费了。