Trigger.Once Spark 结构化流媒体与 KAFKA 可能吗?

发布于 2025-01-09 16:20:09 字数 351 浏览 1 评论 0原文

使用 Trigger.Once 的 Spark 结构化流是否允许直接连接到 KAFKA 并使用 MERGE 语句?或者该数据必须来自增量表吗?

这个 https://docs.databricks.com/_static /notebooks/merge-in-scd-type-2.html 假设表格作为输入。我找不到将 KAFKA 与 Trigger.Once 一起使用的示例。好吧,周末快到了,我会启动这个那个,但这是一个有趣的点,我想提前知道。

Does Spark Structured Streaming using Trigger.Once allow for a direct connection to KAFKA and use of MERGE statement? Or must the data for this be from a delta table?

This https://docs.databricks.com/_static/notebooks/merge-in-scd-type-2.html assumes tables as input. I cannot find an example with KAFKA being used with Trigger.Once. OK, the weekend is coming and I will fire up this and that, but it is an interesting point that I would like to know in advance.

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

糖果控 2025-01-16 16:20:09

是的,可以将 Trigger.Once (或更好的更新的 Trigger.AvailableNow)与 Kafka 一起使用,然后使用 foreachBatch 执行 MERGE。

您需要考虑的唯一一件事是数据不应在执行之间过期。

Yes, it's possible to use Trigger.Once (or better newer Trigger.AvailableNow) with Kafka, and then use foreachBatch to execute MERGE.

The only thing that you need to take into account is that data shouldn't expire between executions.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文