如何解决apache httpd集群的存储问题?
我计划设置一个 Apache HTTPD 集群用于故障转移和负载平衡。我有一个典型的 LAMP 堆栈,MySQL 已经集群在不同的服务器上。由于我不使用会话,因此我不必关心 PHP 会话管理,但我必须保持(活动)HTTPD 之间的文件同步。所有服务器都是网络托管商的专用服务器。
保持文件同步的最佳做法是什么?
网络文件系统?如果server1和server2同时写入怎么办? 如何处理大量 I/O 访问而不产生瓶颈?
来自德国柏林的诚挚问候
I'm planning to set up an Apache HTTPD cluster for failover and loadbalancing. I have a typical LAMP stack and MySQL is already clustered on different servers. As I do not use sessions, I don't have to care about PHP session management, but I have to keep the file synchronized between the (active) HTTPDs. All server are dedicated servers at a webhoster.
What is the best practice to keep the files synchronized?
NFS? What if server1 and server2 write at the same time?
How to handle the heavy I/O accesses without creating a bottleneck?
Best Regards from Berlin/Germany
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
查看RedHat GFS。请注意,它在 RedHat 以外的发行版上受支持。
Have a look at RedHat GFS. As a note, it's supported on distros other than RedHat.