需要有关使用 AWK / sort / uniq 从简单文本文件中删除第一列中具有相同值的行的提示帮助

发布于 2024-10-01 14:09:47 字数 249 浏览 4 评论 0原文

我有一堆文本文件,其中列 1 和列 2 中包含以下内容(用空格分隔):

address0 data0

address1 data1

地址N 数据N

所有数据值都是唯一的(随机),但某些地址值是重复的。如何使用 AWK / sort / uniq 删除具有已指定地址的行?

基本上,无论关联的数据是什么,文本文件中都不应该有重复的地址。

I have a bunch of text files with the following contents in column1 and column2 (separated by a space):

address0 data0

address1 data1

.

.

.

addressN dataN

All data values are unique (random), but some address values are repeated. How do I use AWK / sort / uniq to remove the lines that have addresses that are already specified?

Basically, there should be no duplicate addresses in the text file, no matter what the associated data is.

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(3

A君 2024-10-08 14:09:47
awk '
    $1 in seen {next}
    {print; seen[$1] = 1}
' file ...
awk '
    $1 in seen {next}
    {print; seen[$1] = 1}
' file ...
木格 2024-10-08 14:09:47

排序 -k1 你的文件 | awk '{ if ($1 != last_address_seen) {print $0; last_address_seen=$1}}'

sort -k1 your_file | awk '{ if ($1 != last_address_seen) {print $0; last_address_seen=$1}}'

时光是把杀猪刀 2024-10-08 14:09:47
sort -k1 -u your_file > outputfile

大多数 UNIX 排序命令将支持 -u 选项,该选项将仅保留所有键上比较相等的两行中的第一行。

sort -k1 -u your_file > outputfile

Most unix sort commands will support -u option which will Keep only the first of two lines that compare equal on all keys.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文