1)grep -v " 0$" //取出数据中符合“ 0$”这个正则规则的所有数据
2)awk
3)sort
sort默认的排序方式是升序,如果想改成降序,就加个-r就搞定了。 //排序
4)uniq
uniq对指定的ASCII文件或标准输入进行唯一性检查,以判断文本文件中重复出现的行。
格式:uniq [options] [file1 [file2] ]
uniq从已经排序好的文本文件file1中删除重复的行,输出到标注输出或file2。常作为过滤器,配合管道使用。
在使用uniq命令前,必须确保操作的文本文件已经过sort排序。若不带参数运行uniq,将删除重复的行。
-c, --count //在每行旁边显示该行重复出现的次数
-d, --repeated //仅显示重复出现的行
-D, --all-repeated[=method] //以指定的格式打印所有重复的行。格式仅适用于长选项参数,可使用none(默认),prepend,separate三个,效果见后面。以空行进行区分。
-f n, --skip-fields=n //前n个字段与每个字段前的空白一起被忽略。一个字段(fields)是一个非空格、非制表符的字符串,彼此由制表符和空格隔开(字段从1开始编号)。与-n相同,n为字段数。
-i, --ignore-case //在判断重复行时,忽略大小写区别
-s n, --skip-chars=n //前n个字符被忽略,之前的字符被跳过(字符从1开始编号)。与+n相同,n为字符数。
-u, --unique //仅显示出现一次的行
-w n, --check-chars=n //仅比较每行前面n个字符
--help //显示帮助信息
--version //显示版本信息