需要有关使用 AWK / sort / uniq 从简单文本文件中删除第一列中具有相同值的行的提示帮助
我有一堆文本文件,其中列 1 和列 2 中包含以下内容(用空格分隔):
address0 data0
address1 data1
。
。
。
地址N 数据N
所有数据值都是唯一的(随机),但某些地址值是重复的。如何使用 AWK / sort / uniq 删除具有已指定地址的行?
基本上,无论关联的数据是什么,文本文件中都不应该有重复的地址。
I have a bunch of text files with the following contents in column1 and column2 (separated by a space):
address0 data0
address1 data1
.
.
.
addressN dataN
All data values are unique (random), but some address values are repeated. How do I use AWK / sort / uniq to remove the lines that have addresses that are already specified?
Basically, there should be no duplicate addresses in the text file, no matter what the associated data is.
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(3)
排序 -k1 你的文件 | awk '{ if ($1 != last_address_seen) {print $0; last_address_seen=$1}}'
sort -k1 your_file | awk '{ if ($1 != last_address_seen) {print $0; last_address_seen=$1}}'
大多数 UNIX 排序命令将支持 -u 选项,该选项将仅保留所有键上比较相等的两行中的第一行。
Most unix sort commands will support -u option which will Keep only the first of two lines that compare equal on all keys.