spark streaming on yarn每个批次接收的数据量非常少的问题

发布于 2021-11-28 02:52:46 字数 252 浏览 819 评论 2

最近在调试spark on yarn的程序,通过spark streming调用kafka的低阶API实时获取kafka中的数据,spark streaming中每个批次获取到的kafka数据非常少,只有几百,但是用local模式运行正常,使用Receiver的方式运行在yarn上也正常,不知道是否有高手碰到过相同的问题,或者有没有什么解决办法,望解答,谢谢.

集群环境CDH 5.6,spark 1.5,kafka 2.10-0.8.2.0,yarn 2.6.0

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(2

柠檬 2021-12-02 16:39:02

我们这个是做实时统计的,需要按照不同维度统计不同指标,用了spark sql

回忆凄美了谁 2021-12-01 18:30:28

为啥不用storm,实时性比spark更强,也不会遇到内存的坑

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文