有没有办法将 Solr 配置为在 Amazon S3 上运行,索引文件位于 S3 而不是本地存储上?
我想知道是否有一种方法可以配置 Apache Solr 以索引存储在 S3 上的文件,并将索引文件也保留在 S3 上。我想要一个负载平衡(LD)方案,其中多个处理器可以共享主索引。这将允许我使用 Solr 启动额外的 EC2 实例并将它们指向一个公共存储库和索引。
我正在使用 PHP,非常感谢任何想法或建议。
谢谢。
I would like to know if there is a way to configure Apache Solr to index files stored on S3 and also to keep the index files on S3 as well. I would like to have a load balanced (LD) scheme where multiple processors can share the master index. This would allow me to bring up additional EC2 instances with Solr and point them to a common repository and index.
I am using PHP and would greatly appreciate any ideas or suggestions.
Thanks.
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(2)
至于存储在 AWS S3 中的索引文件,请参阅此处。但是,我还没有尝试将 Solr 索引存储在 S3/EBS 中。挂载共享 EBS 卷可能会起作用。
As for indexing files stored in AWS S3 see here. However, storing the Solr index in S3/EBS is something I did not try yet.. mounting a shared EBS volume might work.
有一个名为
lucene-s3directory
的新项目。它使 Lucene 能够直接向/从 AWS S3 读取和写入索引,并且不需要本地文件系统。我很确定它可以很容易地适应 Solr。现在还处于早期阶段,因此请谨慎使用。There's a new project called
lucene-s3directory
. It enables Lucene to read and write indices to/from AWS S3 directly and does not need a local filesystem. I'm pretty sure it can easily be adapted for Solr. It's pretty early stage so use with caution.