Shell-如何使用 awk 统计 服务器日志每个url的访问次数(排除搜索引擎)?

发布于 2016-10-22 08:45:22 字数 273 浏览 1231 评论 2

日志格式为:

117.72.201.7 - - [30/Jun/2012:00:04:09 +0800] "GET /news/3186 HTTP/1.1" 200 19048 "http://www.xxx.com/xxxx/xxx" "Mozilla/5.0 (Windows NT 5.1) AppleWebKit/535.2 (KHTML, like Gecko) Chrome/15.0.874.106 Safari/535.2" -

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(2

想挽留 2017-05-08 18:22:49

用sed删除搜索引擎的访问记录;参照这个问题 @用SHELL如何统计排序WEB ACCESS LOG

sed "/Baiduspider/d;/Googlebot/d;/Sogou web spider/d;" xxx.log|awk -F' ' '{print $7}'|sort | uniq -c | sort -k1,2 -nr > times.txt
夜无邪 2016-11-14 03:50:06

sed "/Baiduspider/d;/Googlebot/d;/Sogou web spider/d;" xxx.log|awk '{url[$7]++} END {for (k in url) {print url[k],k}}'|sort -rn > times.txt

测试过有数组的效率比sort、uniq要高10倍,感兴趣的可以试试。

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文