几十亿的数据导入elasticsearch有没有什么好的策略?

发布于 2021-12-05 19:35:00 字数 38 浏览 846 评论 8

几十亿的数据导入elasticsearch有没有什么好的策略?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(8

把昨日还给我 2021-12-06 13:34:17

从哪倒进去?每条记录有多大?

爱的那么颓废 2021-12-06 13:33:52

循环跑半年

多彩岁月 2021-12-06 13:33:18

分布式,hadoop,flink

一个人的旅程 2021-12-06 13:08:22

手动录入

别再吹冷风 2021-12-06 12:27:57

hbase到solr,16亿7.5个小时,还可以优化

乞讨 2021-12-06 11:40:39

es索引region,数据分批并行导入不同的region,搜索的时候在region上加一层merge逻辑

檐上三寸雪 2021-12-06 09:30:09

曾经从mysql/oracle导入solr、hbase用了20多个小时好像

因为看清所以看轻 2021-12-06 03:47:37

我之前从 MongoDB 导入 2.5 亿条记录到 ElasticSearch,跑了十几个小时,看面板曲线,后面导入速度越来越慢。MongoDB 数据自动同步到 ElasticSearch

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文