几十亿的数据导入elasticsearch有没有什么好的策略?
几十亿的数据导入elasticsearch有没有什么好的策略?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
几十亿的数据导入elasticsearch有没有什么好的策略?
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
接受
或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
发布评论
评论(8)
从哪倒进去?每条记录有多大?
循环跑半年
分布式,hadoop,flink
手动录入
hbase到solr,16亿7.5个小时,还可以优化
es索引region,数据分批并行导入不同的region,搜索的时候在region上加一层merge逻辑
曾经从mysql/oracle导入solr、hbase用了20多个小时好像
我之前从 MongoDB 导入 2.5 亿条记录到 ElasticSearch,跑了十几个小时,看面板曲线,后面导入速度越来越慢。MongoDB 数据自动同步到 ElasticSearch