硬件资源很充足,为何却扛不住几千并发?
Ubuntu 14.04 Server上有Squid 代理和Web服务,网络连接数一上来Web服务和Squid就开始各种timeout和connection refused。但服务器内存、CPU、带宽等资源都很充足,这是啥原因呢?
附:
netstat -n | awk '/^tcp/ {++y[$NF]} END {for(w in y) print w, y[w]}'
LAST_ACK 310
SYN_RECV 56
CLOSE_WAIT 69
ESTABLISHED 2143
FIN_WAIT1 1202
FIN_WAIT2 59
CLOSING 555
SYN_SENT 1557
TIME_WAIT 2942
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(9)
不知道 squid是什么,但是这个问题应该是 squid的 底层日志非业务日志,和操作系统日志里面就能查到端倪的。
引用来自“独孤青冥”的评论
因该是安全策略配置的问题,你查看一那些相关的配置文件,如果涉及到连接数限制就弄大一点,另外,查看一下内核参数或者防火墙,路由参数
因该是安全策略配置的问题,你查看一那些相关的配置文件,如果涉及到连接数限制就弄大一点,另外,查看一下内核参数或者防火墙,路由参数
引用来自“Nox”的评论
是什么应用服务器做的WEB服务?数据库是什么呢?任何一个地方线程开少了都会有瓶颈的啊。
找个压力测试工具测一下嘛。
是什么应用服务器做的WEB服务?数据库是什么呢?任何一个地方线程开少了都会有瓶颈的啊。
找个压力测试工具测一下嘛。
引用来自“0-1”的评论
squid.conf配置正确吗,比如 http_access deny 和 http_access allow
squid.conf配置正确吗,比如 http_access deny 和 http_access allow
引用来自“0-1”的评论
ulimit -a看看
ulimit -a看看