从S3摄入文件时,Databricks Delta Live Tables卡住了

发布于 2025-01-26 14:41:20 字数 158 浏览 3 评论 0原文

我是Databricks的新手,刚刚创建了一个Delta Live表,从S3摄入了6000万JSON文件。但是,输入率(从S3中读取的文件数)被困在8张/s左右,这是非常低的IMO。我增加了我的三角洲实时表中的工作/核心数量,但输入率保持不变。

我是否需要添加任何配置来增加管道的输入率?

I'm new to databricks and just created a delta live tables to ingest 60 millions json file from S3. However the input rate (the number of files that it read from S3) is stuck at around 8 records/s, which is very low IMO. I have increased the number of worker/core in my delta live tables but the input rate stays the same.

Is there any config that I have to add to increase the input rate for my pipeline?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文