有没有办法将 Solr 配置为在 Amazon S3 上运行,索引文件位于 S3 而不是本地存储上?

发布于 2025-01-03 10:42:36 字数 182 浏览 0 评论 0原文

我想知道是否有一种方法可以配置 Apache Solr 以索引存储在 S3 上的文件,并将索引文件也保留在 S3 上。我想要一个负载平衡(LD)方案,其中多个处理器可以共享主索引。这将允许我使用 Solr 启动额外的 EC2 实例并将它们指向一个公共存储库和索引。

我正在使用 PHP,非常感谢任何想法或建议。

谢谢。

I would like to know if there is a way to configure Apache Solr to index files stored on S3 and also to keep the index files on S3 as well. I would like to have a load balanced (LD) scheme where multiple processors can share the master index. This would allow me to bring up additional EC2 instances with Solr and point them to a common repository and index.

I am using PHP and would greatly appreciate any ideas or suggestions.

Thanks.

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(2

情独悲 2025-01-10 10:42:37

至于存储在 AWS S3 中的索引文件,请参阅此处。但是,我还没有尝试将 Solr 索引存储在 S3/EBS 中。挂载共享 EBS 卷可能会起作用。

As for indexing files stored in AWS S3 see here. However, storing the Solr index in S3/EBS is something I did not try yet.. mounting a shared EBS volume might work.

方圜几里 2025-01-10 10:42:36

有一个名为 lucene-s3directory 的新项目。它使 Lucene 能够直接向/从 AWS S3 读取和写入索引,并且不需要本地文件系统。我很确定它可以很容易地适应 Solr。现在还处于早期阶段,因此请谨慎使用。

S3Directory dir = new S3Directory("my-lucene-index");
dir.create();
// use it in your code in place of FSDirectory, for example
dir.close();
dir.delete();

There's a new project called lucene-s3directory. It enables Lucene to read and write indices to/from AWS S3 directly and does not need a local filesystem. I'm pretty sure it can easily be adapted for Solr. It's pretty early stage so use with caution.

S3Directory dir = new S3Directory("my-lucene-index");
dir.create();
// use it in your code in place of FSDirectory, for example
dir.close();
dir.delete();
~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文