如何在databricks/adf中建立ADLS和KAFKA之间的连接以处理文件/数据
我们的来源正在将流数据产生到ADLS路径中, 需要一个解决方案将ADL与KAFKA连接,并在Databricks/ADF中使用流数据处理。 如何实现此用例?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
我们的来源正在将流数据产生到ADLS路径中, 需要一个解决方案将ADL与KAFKA连接,并在Databricks/ADF中使用流数据处理。 如何实现此用例?
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
接受
或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
发布评论
评论(1)
不幸的是,Kafka的Azure Data Lake Gen2连接器仅支持下沉。您可以将数据从
avro
,JSON
,parquet
和bytearray
中导出到avro
in apache kafka到adls gen 2。根据您的配置,Azure Data Lake Storage gen2连接器可以通过确保与其生成的Azure Data Lake Storage gen2文件的消费者确切地将数据导出数据。
您可以参考汇合文档。
Unfortunately, the Azure Data Lake Gen2 connector for Kafka only support sink. You can export data from Apache Kafka to ADLS Gen 2 in
Avro
,JSON
,Parquet
andByteArray
.Depending on your configuration, the Azure Data Lake Storage Gen2 connector can export data by guaranteeing exactly-once delivery semantics to consumers of the Azure Data Lake Storage Gen2 files it produces.
You can refer the confluent document Azure Data Lake Storage Gen2 Sink Connector for Confluent Platform.