Python 处理亿级数据量有什么方案?

发布于 2022-09-12 04:50:48 字数 166 浏览 16 评论 0

最近遇到一个问题,要把2亿多的数据插入到 ES 中。

现在的方案是:生成器分段读取文本内容,再对每行内容进行处理,放入到一个列表

ES 方面是循环这个列表,每次取 500 条批量插入到 ES 中
以上方案速度巨慢,跑了一两个小时才1900万,不到2000万,请问这种情况有什么好的方案?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

昇り龍 2022-09-19 04:50:48

没太听懂,“ES 方面是循环这个列表,每次取 500 条批量插入到 ES 中” es自己导入新库?
处理慢就多开进程,问题应该是 es如何高效写入 吧 我也不会 百度吧

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文