分析网站AccessLog如何过滤蜘蛛
分析网站的access_log总是有很多噪音日志,有搜索引擎的蜘蛛,也有订阅源什么的,非常麻烦
我现在的做法是用UA的一些关键字做过滤,维护一个过滤列表,每分析一条就去过滤一次。
我想问问,还有没有其他更好的方案,因为过滤UA的方法,当列表很大的时候,效率非常差,而且这个列表也不一定全,需要定时去观察数据,更新列表。
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(2)
access log记录时就过滤掉已知bot的访问记录写入单独log文件
来来来,我给你看看这个简单粗暴的命令: