从S3摄入文件时,Databricks Delta Live Tables卡住了
我是Databricks的新手,刚刚创建了一个Delta Live表,从S3摄入了6000万JSON文件。但是,输入率(从S3中读取的文件数)被困在8张/s左右,这是非常低的IMO。我增加了我的三角洲实时表中的工作/核心数量,但输入率保持不变。
我是否需要添加任何配置来增加管道的输入率?
I'm new to databricks and just created a delta live tables to ingest 60 millions json file from S3. However the input rate (the number of files that it read from S3) is stuck at around 8 records/s, which is very low IMO. I have increased the number of worker/core in my delta live tables but the input rate stays the same.
Is there any config that I have to add to increase the input rate for my pipeline?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论