文件服务器分布式缓存

发布于 2024-10-05 05:47:49 字数 151 浏览 3 评论 0原文

我们有一个非常大的文件服务器(HTTP 和/或 FTP)。一些文件随后被大约 5 个系统使用。例如,系统A将使用文件A和B。那么系统B将使用文件A和C。

是否有应用程序(最好是免费或开源的)可以在系统内部缓存那些常用的文件?

我正在寻找鱿鱼的替代品。谢谢。

We have a very big file server (HTTP and/or FTP). Some files are then used by around 5 systems. For example, system A will use files A and B. Then System B will use files A and C.

Are there applications, preferably free or open source, that can cache those commonly used files inside the system?

I'm looking for Squid alternatives. Thanks.

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(2

千年*琉璃梦 2024-10-12 05:47:49

您看过 Hadoop 吗?我自己没有使用过它,但它似乎完全符合你的要求。

Have you looked at Hadoop? I haven't used it myself but it seems to do exactly what you want.

能否归途做我良人 2024-10-12 05:47:49

如果我们讨论的是存储数百 MB 的文件,那么 Hadoop 将是我解决此问题的推荐选择。但根据社区的说法,Hadoop 不太适合 kB 或 << 的文件。 200-300MB。

对于这种情况,大多数建议构建在 Hadoop 上的 HBase。该组合同时提供高可用性和可扩展性。但这么说 Hadoop 设置可能比您想要的要大,例如开发/测试集群大小为 建议由4~5台服务器组成,而生产环境最少为10台以上服务器。

一个有效的鱿鱼网络缓存替代品是 Varnish

If we are talking about storing files in 100s of MBs then Hadoop would be my recommended choice to solve this problem. But according to the community Hadoop is not very suitable for files in kB or < 200-300MB.

For such cases most recommend HBase built on Hadoop. The combo provides high availability and scalability at the same time. But saying so Hadoop setup might be a bigger than one might want, e.g. a development/test cluster size is recommended to consist of 4~5 servers, while production environment minimum is 10+ servers.

An effective alternate to squid web cache is Varnish.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文