怎样让spark定时读数据库数据呢?

发布于 2022-09-02 15:50:51 字数 111 浏览 17 评论 0

我做大数据分析,我想用spark定时去读cassandra数据(轮询),分析结果存到mysql,用scala写程序,该如何实现...?需要用spark streaming吗?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(4

星星的轨迹 2022-09-09 15:50:51

标准的spark streaming场景,不过不会scala

丑疤怪 2022-09-09 15:50:51

其实你可以像单机程序那样,执行一个函数,然后休眠一段时间,然后再循环。。。
对实时性要求不高可以不上spark streaming。如果上,最好有另外一个程序作为发送端,将数据发布到kafka上供spark消费。具体的代码可以看官方的demo

红墙和绿瓦 2022-09-09 15:50:51

可以写一个定时脚步。
例如在Linux 服务器上,修改crontab -e
10 10,18 * /home/ane/zhong_config/runSignException.sh
每到10点10分和18点10分 运行 这个脚步,脚步中可以调用执行Scala的代码。
不知道这样是否符合你的要求,不需要sparkstreaming 复杂的引用

飘过的浮云 2022-09-09 15:50:51

scala 的 dataframe 支持从很多数据源,可以方便读取数据,建议去找找资料。

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文