如何在databricks/adf中建立ADLS和KAFKA之间的连接以处理文件/数据

发布于 2025-02-14 00:59:36 字数 85 浏览 1 评论 0 原文

我们的来源正在将流数据产生到ADLS路径中, 需要一个解决方案将ADL与KAFKA连接,并在Databricks/ADF中使用流数据处理。 如何实现此用例?

we are having a source which are producing streaming data into ADLS path,
need a solution to connect ADLS with kafka and use the streaming data processing in databricks/ADF.
How to achieve this use case?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

夏九 2025-02-21 00:59:36

不幸的是,Kafka的Azure Data Lake Gen2连接器仅支持下沉。您可以将数据从 avro JSON parquet bytearray 中导出到 avro in apache kafka到adls gen 2。

根据您的配置,Azure Data Lake Storage gen2连接器可以通过确保与其生成的Azure Data Lake Storage gen2文件的消费者确切地将数据导出数据。

您可以参考汇合文档

Unfortunately, the Azure Data Lake Gen2 connector for Kafka only support sink. You can export data from Apache Kafka to ADLS Gen 2 in Avro, JSON, Parquet and ByteArray.

Depending on your configuration, the Azure Data Lake Storage Gen2 connector can export data by guaranteeing exactly-once delivery semantics to consumers of the Azure Data Lake Storage Gen2 files it produces.

You can refer the confluent document Azure Data Lake Storage Gen2 Sink Connector for Confluent Platform.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文