Linux提取日志文件
在日志文件中有若干行,其中每一行有2个IP, 第一个IP是每一行的第一列,第二个IP的位置不固定,在有的行中是第7列,有的是第8列,有的是第9列,总之不固定。
现在需要利用Linux下的awk、sed、grep等工具,把每行的第二个IP段提取出来。求大神解答啊喵喵QAQ
举例:
log文件如下:
10.10.9.1 test 8:00 www.www.com HTTP/1.1 200 134.123.78.127
10.10.9.2 test2 8:01 www.com HTTP/1.1 200 124.113.28.27
10.10.9.2 test2 8:01 www.com HTTP/1.1 200 (a=b) 124.113.28.33
10.10.9.2 test2 8:01 www.com HTTP/1.1 200 (a=b c=d) 124.113.10.28
10.10.9.2 test2 8:01 www.com HTTP/1.1 200 (a=b c=d) test 124.113.28.27
10.10.9.2 test2 8:01 www.com HTTP/1.1 200 (a=b c=d) test (e=f) 124.113.28.27
输入如下:
10.10.9.1 134.123.78.127
10.10.9.2 124.113.28.27
10.10.9.2 124.113.28.33
10.10.9.2 124.113.10.28
10.10.9.2 124.113.28.27
10.10.9.2 124.113.28.27
问题补充
要取的第二个IP不是最后一列,后面还有数据
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(6)
如果是最后一列的话,用
用awk比较简单
awk '{print $NF}'
# $NF的意思是最后一个 默认以空格分隔 $NF-1 就是倒数第二个 以此类推如果你的log不是默认以空格分隔的 可以加上 -F 参数
-F "我是分隔符"
So easy. awk脚本如下: