Linux统计文件内容重复行

需求:在一个文件中,如下文件内容有许多乱序的重复值,那我们想要快速知道哪些是重复值怎么办?试问你能靠眼里10秒内找到吗?哈哈哈

 

解决方案:先使用 sort 命令将文件内容进行排序,再使用 uniq 命令进行统计重复值

  uniq 常用参数

    -c    #在每行前统计重复的次数

    -d     #只输出重复的行,每个重复值只输出一次

    -i    #不区分大小写

    -u    #只显示没有重复的行

sort maclist.txt | uniq -c

 

* 删除重复值

sort maclist.txt | uniq >mac.txt        #sort文件内容排序后,使用uniq删除重复行并将输出结果写入新文件mac.txt

 

或者用 sort -u maclist.txt >mac.txt

 

posted @ 2024-04-24 18:54  凡是過往;皆為序章  阅读(425)  评论(0编辑  收藏  举报