如题。。。
感觉打印在一起这个需求就不太合理啊,至少对于大数据、高并发系统不适合,一般都是打印在各个server上,然后日志分析的话是采集各个机器日志做分析;也许是你业务场景需要吧
回复参考这个 http://jafy00.blog.51cto.com/2594646/727152, 最好是用脚本命令在多台服务器上执行。 如果日志打在1处,假如你nginx的server越来越多,单个日志服务器的磁盘io会被打满,弊大于利。
因为是轮询请求,所以一个交易流程下来,日志是在两台服务器上了。如果出问题的话,找一笔交易的日志要去两台上边找,感觉太麻烦了
nginx日志访问网址排序 cat shop.whaley.cn.log |awk '{print $1}'|sort|uniq -c |sort -n -r|head -n 10nginx日志合并命令 sort -m -t " " -k 4 -o all_log nginxlog1 nginxlog2 说明 nginx日志-m 一种算法,-t 分隔符, -k 第几列排序, -o 输出到 all_log ,nginxlog1和nginxlog2要合并的日志
nfs 不知道是不是需要的。
回复如果用得是log4j,log4j本身支持将日志输出到其他服务器上,如果不是就用logstash采集合成到一起
回复好的,我看下,谢谢啦
回复么事
回复因为之前系统发生过几次log4j写日志死锁的情况,用log4j的远程打印担心性能或者是稳定性。。。先看看你说的logstash
回复写日志死锁?这种情况应该是两个系统公用了一个日志文件吧,分开写再合并更容易实现点
你说的整合是把两个实例输出的log合并在一起?
嗯谢谢,之前没接触过这一块,学习下
日志收集不就可以了?目前成熟的方案很多。比如系统自带的rsyslog,第三方的flumed, ELK Stack等等
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
暂无简介
文章 0 评论 0
接受
发布评论
评论(13)
感觉打印在一起这个需求就不太合理啊,至少对于大数据、高并发系统不适合,一般都是打印在各个server上,然后日志分析的话是采集各个机器日志做分析;也许是你业务场景需要吧
回复
参考这个 http://jafy00.blog.51cto.com/2594646/727152, 最好是用脚本命令在多台服务器上执行。 如果日志打在1处,假如你nginx的server越来越多,单个日志服务器的磁盘io会被打满,弊大于利。
因为是轮询请求,所以一个交易流程下来,日志是在两台服务器上了。如果出问题的话,找一笔交易的日志要去两台上边找,感觉太麻烦了
nginx日志访问网址排序 cat shop.whaley.cn.log |awk '{print $1}'|sort|uniq -c |sort -n -r|head -n 10
nginx日志合并命令 sort -m -t " " -k 4 -o all_log nginxlog1 nginxlog2
说明 nginx日志-m 一种算法,-t 分隔符, -k 第几列排序, -o 输出到 all_log ,nginxlog1和nginxlog2要合并的日志
nfs 不知道是不是需要的。
回复
如果用得是log4j,log4j本身支持将日志输出到其他服务器上,如果不是就用logstash采集合成到一起
回复
好的,我看下,谢谢啦
回复
么事
回复
因为之前系统发生过几次log4j写日志死锁的情况,用log4j的远程打印担心性能或者是稳定性。。。先看看你说的logstash
回复
写日志死锁?这种情况应该是两个系统公用了一个日志文件吧,分开写再合并更容易实现点
你说的整合是把两个实例输出的log合并在一起?
嗯谢谢,之前没接触过这一块,学习下
日志收集不就可以了?目前成熟的方案很多。比如系统自带的rsyslog,第三方的flumed, ELK Stack等等