Solr 索引速度测试需要大型数据库

发布于 2025-01-04 17:51:04 字数 1459 浏览 1 评论 0原文

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(2

梦忆晨望 2025-01-11 17:51:04

您可以使用 wikipedia 数据转储,也可以使用 stackoverflow 数据转储。

我会使用 stackoverflow 数据转储,因为维基百科转储非常大。
我认为维基百科也有部分转储,用于开发和实验,这可能更合适。

维基百科是 MySQL、Stackoverflow SQL-Server。

https://blog.stackoverflow.com/2009/06/stack-overflow -creative-commons-data-dump/
https://blog.stackoverflow.com/category/cc-wiki-dump

http://media10.simplex.tv/content/xtendx/stu/stackoverflow/

You could use wikipedia data dumps, or you could use stackoverflow data dumps.

I would use stackoverflow data dumps, since wikipedia dumps are HUGE.
I think wikipedia also has partial dumps, for development and experimentation, which probably would be more suitable.

Wikipedia is MySQL, Stackoverflow SQL-Server.

https://blog.stackoverflow.com/2009/06/stack-overflow-creative-commons-data-dump/
https://blog.stackoverflow.com/category/cc-wiki-dump

http://media10.simplex.tv/content/xtendx/stu/stackoverflow/

爱,才寂寞 2025-01-11 17:51:04
for (int i = 0; i < 99999999; i++) {
    SolrDocument sd = new SolrDocument();
    sd.put("id", i);
    sd.put("somefield", someRandomValue());
    // etc
    solrServer.index(sd);
}
for (int i = 0; i < 99999999; i++) {
    SolrDocument sd = new SolrDocument();
    sd.put("id", i);
    sd.put("somefield", someRandomValue());
    // etc
    solrServer.index(sd);
}
~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文