Solr 提交花费的时间太长

发布于 2024-11-14 15:45:59 字数 779 浏览 2 评论 0原文

如果您从数据导入中注意到,我的提交似乎花费了太多时间 下面给出的状态提交 1000 个文档需要超过 24 分钟

<str name="status">busy</str>
<str name="importResponse">A command is still running...</str>
<lst name="statusMessages">
<str name="Time Elapsed">0:24:43.156</str>
<str name="Total Requests made to DataSource">1001</str>
<str name="Total Rows Fetched">1658</str>
<str name="Total Documents Skipped">0</str>
<str name="Full Dump Started">2011-06-07 09:15:17</str>
<str name="">
Indexing completed. Added/Updated: 1000 documents. Deleted 0 documents.
</str>
</lst>

可能导致此问题的原因是什么,我已尝试寻找原因或改进方法 这个,但我就是找不到。按照这个速度,我的文件永远不会得到 已建立索引,假设我有超过 100,000 条记录进入数据库 每小时。

问候, 罗希特

My commit seems to be taking too much time, if you notice from the Dataimport
status given below to commit 1000 docs its taking longer than 24 minutes

<str name="status">busy</str>
<str name="importResponse">A command is still running...</str>
<lst name="statusMessages">
<str name="Time Elapsed">0:24:43.156</str>
<str name="Total Requests made to DataSource">1001</str>
<str name="Total Rows Fetched">1658</str>
<str name="Total Documents Skipped">0</str>
<str name="Full Dump Started">2011-06-07 09:15:17</str>
<str name="">
Indexing completed. Added/Updated: 1000 documents. Deleted 0 documents.
</str>
</lst>

What can be causing this, I have tried looking for a reason or a way to improve
this, but am just not able to find. At this rate my documents would never get
indexed, given that I have more than 100,000 records coming into the database
every hour.

Regards,
Rohit

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(2

梦忆晨望 2024-11-21 15:45:59

我不知道你是否使用 solrj

public abstract class SolrServer

但如果你使用,你真的需要按块/集合进行索引:

  public UpdateResponse add(Collection<SolrInputDocument> docs ) 

而不是一一索引

I don't know if you use solrj

public abstract class SolrServer

but if you do, you really need to index by chuncks/collections:

  public UpdateResponse add(Collection<SolrInputDocument> docs ) 

and not one by one

不忘初心 2024-11-21 15:45:59

在数据导入处理程序中添加了 optimize=false。这在某种程度上使事情变得更快,现在我只在非高峰时段进行优化。

Have added optimize=false in the data import handler. This has made things faster to some extent, now I am optimizing only during off peak hours.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文