linux sort,uniq,cut,wc,tr命令详解

sort是在Linux里非常常用的一个命令,对指定文件进行排序、去除重复的行

sort 命令对 File 参数指定的文件中的行排序,并将结果写到标准输出。如果 File 参数指定多个文件,那么 sort 命令将这些文件连接起来,并当作一个文件进行排序。

sort语法:

[root@www ~]# sort [-fbMnrtuk] [file or stdin]
选项与参数:
-f  :忽略大小写的差异,例如 A 与 a 视为编码相同;
-b  :忽略每行最前面的空格符部分;
-M  :以月份的名字来排序,例如 JAN, DEC 等等的排序方法;
-n  :按照数值的大小排序;
-r  :反向排序;
-u  :就是 uniq ,重复的数据中,仅出现一行代表;
-t  :分隔符,默认是用 [tab] 键来分隔;
-k  :以那个区间 (field) 来进行排序的意思

-c   检查文件是否已经按照顺序排序。

1.对/etc/passwd 的账号进行排序:

[root@www ~]# cat /etc/passwd | sort
adm:x:3:4:adm:/var/adm:/sbin/nologin
apache:x:48:48:Apache:/var/www:/sbin/nologin
bin:x:1:1:bin:/bin:/sbin/nologin
daemon:x:2:2:daemon:/sbin:/sbin/nologi

2.sort 是默认以第一个数据来排序,而且默认是以字符串形式来排序,所以由字母 a 开始升序排序。/etc/passwd 内容是以 : 来分隔的,我想以第三栏来排序,该如何

[root@www ~]# cat /etc/passwd | sort -t ':' -k 3
root:x:0:0:root:/root:/bin/bash
uucp:x:10:14:uucp:/var/spool/uucp:/sbin/nologin
operator:x:11:0:operator:/root:/sbin/nologin
bin:x:1:1:bin:/bin:/sbin/nologin
games:x:12:100:games:/usr/games:/sbin/nologin

3.默认是以字符串来排序的,如果想要使用数字排序:

cat /etc/passwd | sort -t ':' -k 3n
root:x:0:0:root:/root:/bin/bash
daemon:x:1:1:daemon:/usr/sbin:/bin/sh
bin:x:2:2:bin:/bin:/bin/sh

4.默认是升序排序,如果要倒序排序,如下

cat /etc/passwd | sort -t ':' -k 3nr
nobody:x:65534:65534:nobody:/nonexistent:/bin/sh
ntp:x:106:113::/home/ntp:/bin/false
messagebus:x:105:109::/var/run/dbus:/bin/false
sshd:x:104:65534::/var/run/sshd:/usr/sbin/nologin

5.如果要对/etc/passwd,先以第六个域的第2个字符到第4个字符进行正向排序,再基于第一个域进行反向排序

cat /etc/passwd |  sort -t':' -k 6.2,6.4 -k 1r     
sync:x:4:65534:sync:/bin:/bin/sync
proxy:x:13:13:proxy:/bin:/bin/sh
bin:x:2:2:bin:/bin:/bin/sh
sys:x:3:3:sys:/dev:/bin/sh

6.查看/etc/passwd有多少个shell:对/etc/passwd的第七个域进行排序,然后去重:

cat /etc/passwd |  sort -t':' -k 7 -u
root:x:0:0:root:/root:/bin/bash
syslog:x:101:102::/home/syslog:/bin/false
daemon:x:1:1:daemon:/usr/sbin:/bin/sh
sync:x:4:65534:sync:/bin:/bin/sync
sshd:x:104:65534::/var/run/sshd:/usr/sbin/nologin

实例:

统计nginx访问日志中$request访问的响应时间,其中$request_time为响应时间.并按响应时间进行排序,日志格式如下:

[2018-06-01T03:39:21+08:00] 223.104.65.46 - - "POST /service/investments/gettickcount HTTP/1.1" 200  0.003 0.003 10.100.3.41:8080 95 
"-" "eTonDa/1215.1050 CFNetwork/811.5.4 Darwin/16.6.0" "-" "https://api.xxxooo.com/service/investments/gettickcount" "-" "-"

执行命令如下(使用grep过滤出含有该字段的行,通过awk取出需要的两个字段,并使用sort进行排序,-t参数指定使用空格进行分割,-k用来指定以哪个字段进行排序,这里指定2,表示以相应时间进行排序,-r为反向排序,head表示默认显示前十行):

[root@localhost]# cat  /opt/logs/nginx/api.access_access.log |grep --color '/api/attendence/v1/' | awk '{print $6,$9}' |sort -t " " -rk 2 |head 
/api/attendence/v1/attendences?channel=APP 0.448
/api/attendence/v1/attendences?channel=APP 0.442
/api/attendence/v1/attendences?channel=APP 0.435
/api/attendence/v1/attendences?channel=APP 0.433
/api/attendence/v1/attendences?channel=APP 0.433
/api/attendence/v1/attendences?channel=APP 0.429
/api/attendence/v1/attendences?channel=APP 0.421
/api/attendence/v1/attendences?channel=APP 0.420
/api/attendence/v1/attendences?channel=APP 0.415
/api/attendence/v1/attendences?channel=APP 0.415

uniq

uniq命令可以去除排序过的文件中的重复行,因此uniq经常和sort合用。也就是说,为了使uniq起作用,所有的重复行必须是相邻的。

uniq语法:

[root@www ~]# uniq [-i c u]
选项与参数:
  -
i   :忽略大小写字符的不同;
  -
c  :进行计数
  -u  :只显示唯一的行

1.testfile的内容如下

cat testfile
hello
world
friend
hello
world
hello 

2.排序文件,默认是去重

#cat testfile  | sort |uniq
friend
hello
world

3.排序之后删除了重复行,同时在行首位置输出该行重复的次数

#sort testfile | uniq -c
1 friend
3 hello
2 world

4.仅显示存在重复的行,并在行首显示该行重复的次数

#sort testfile | uniq -dc
3 hello
2 world

5.仅显示不重复的行

sort testfile | uniq -u
friend 

cut

cut命令可以从一个文本文件或者文本流中提取文本列。

常用参数:
 -c 根据字符,用法:cut -cnum1-num2 filename 截取num1~num2之间的字符,字符从1开始记。 
 -f 根据域,默认为tab分隔 
 -d 定义域分隔符

cut语法

[root@www ~]# cut -d'分隔字符' -f fields ==用于有特定分隔字符 [root@www ~]# cut -c 字符区间 ==用于排列整齐的信息 选项与参数: -d :后面接分隔字符。与 -f 一起使用; -f :依据 -d 的分隔字符将一段信息分割成为数段,用 -f 取出第几段的意思; -c :以字符 (characters) 的单位取出固定字符区间; 

PATH 变量如

[root@www ~]# echo $PATH
/bin:/usr/bin:/sbin:/usr/sbin:/usr/local/bin:/usr/X11R6/bin:/usr/games
# 1 | 2       | 3   | 4       | 5            | 6            | 7

1.将 PATH 变量取出,我要找出第五个路径。

#echo $PATH | cut -d ':' -f 5
/usr/local/bin 

2.将 PATH 变量取出,我要找出第三和第五个路径

#echo $PATH | cut -d ':' -f 3,5
/sbin:/usr/local/bin

3.将 PATH 变量取出,我要找出第三到最后一个路径。

echo $PATH | cut -d ':' -f 3-
/sbin:/usr/sbin:/usr/local/bin:/usr/X11R6/bin:/usr/games 

4.将 PATH 变量取出,我要找出第一到第三个路径。

#echo $PATH | cut -d ':' -f 1-3
/bin:/usr/bin:/sbin:

5.将 PATH 变量取出,我要找出第一到第三,还有第五个路径。

echo $PATH | cut -d ':' -f 1-3,5
/bin:/usr/bin:/sbin:/usr/local/bin

6.实用例子:只显示/etc/passwd的用户和shell

#cat /etc/passwd | cut -d ':' -f 1,7 root:/bin/bash
daemon:/bin/sh
bin:/bin/sh

 wc

统计文件里面有多少单词,多少行,多少字符。

wc语法

[root@www ~]# wc [-lwm]
选项与参数:
-
l  :仅列出行;
-w
  :仅列出多少字(英文单字);
-m  :多少字符;

 默认使用wc统计/etc/passwd

#wc /etc/passwd
40   45 1719 /etc/passwd
40是行数,45是单词数,1719是字节数

wc的命令比较简单使用,每个参数使用如下:

1.#wc -l /etc/passwd #统计行数,在对记录数时,很常用 40 /etc/passwd #表示系统有40个账户 
2.#wc -w /etc/passwd #统计单词出现次数 45 /etc/passwd 3.#wc -m /etc/passwd #统计文件的字节数 1719
 tr命令:
tr用来从标准输入中通过替换或删除操作进行字符转换。
tr主要用于删除文件中控制字符或进行字符转换
常用选项的tr命令格式为:
tr -c -d -s ["string1_to_translate_from"]["string2_to_translate_to"] < input-file
这里:
-c 用字符串1中字符集的补集替换此字符集,要求字符集为ASCII。
-d 删除字符串1中所有输入字符。
-s 删除所有重复出现字符序列,只保留第一个;即将重复出现字符串压缩为一个字符串。
 input-file是转换文件名。虽然可以使用其他格式输入,但这种格式最常用。
2、字符范围
指定字符串1或字符串2的内容时,只能使用单字符或字符串范围或列表。
[a-z] a-z内的字符组成的字符串。
[A-Z] A-Z内的字符组成的字符串。
[0-9] 数字串。
\octal 一个三位的八进制数,对应有效的ASCII字符。
[O*n] 表示字符O重复出现指定次数n。因此[O*2]匹配OO的字符串。
实例:
1、将文件file中出现的"abc"替换为"xyz"

    # cat file | tr "abc" "xyz" > new_file
  【注意】这里,凡是在file中出现的"a"字母,都替换成"x"字母,"b"字母替换为"y"字母,"c"字母替换为"z"字母。而不是将字符串"abc"替       换为字符串"xyz"2、使用tr命令“统一”字母大小写
  (小写 --> 大写)
   # cat file | tr [a-z] [A-Z] > new_file
  (大写 --> 小写)
    # cat file | tr [A-Z] [a-z] > new_file
3、把文件中的数字0-9替换为a-j
    # cat file | tr [0-9] [a-j] > new_file
4、删除文件file中出现的"Snail"字符
   # cat file | tr -d "Snail" > new_file
【注意】这里,凡是在file文件中出现的'S','n','a','i','l'字符都会被删除!而不是紧紧删除出现的"Snail”字符串。
5、删除文件file中出现的换行'\n'、制表'\t'字符
 
   # cat file | tr -d "\n\t" > new_file
  不可见字符都得用转义字符来表示的,这个都是统一的。
 
6、删除“连续着的”重复字母,只保留第一个
 
    # cat file | tr -s [a-zA-Z] > new_file
7、删除空行
   # cat file | tr -s "\n" > new_file
 8、删除Windows文件“造成”的'^M'字符
  # cat file | tr -d "\r" > new_file
  或者
  # cat file | tr -s "\r" "\n" > new_file
 
【注意】这里-s后面是两个参数"\r""\n",用后者替换前者
9、用空格符\040替换制表符\011
    # cat file | tr -s "\011" "\040" >new_file
10、把路径变量中的冒号":",替换成换行符"\n"
   # echo $PATH | tr -s ":" "\n"

  

 统计nginx日志响应时间,并按响应时间进行排序,列出每个url的访问次数,需要用那个字段排序需要将改字段放在前面..awk '{print $9 ,$6}'

[root@localhost tmp]# cat  /opt/logs/nginx/api_access.log |grep --color '/api/attendence/v1/' | awk '{print $9 ,$6}' |sort -r |uniq -dc 
      2 0.433 /api/attendence/v1/attendences?channel=APP
      2 0.415 /api/attendence/v1/attendences?channel=APP
      2 0.367 /api/attendence/v1/attendences?channel=APP
      2 0.341 /api/attendence/v1/attendences?channel=APP
      2 0.338 /api/attendence/v1/attendences?channel=APP
      2 0.308 /api/attendence/v1/attendences?channel=APP
      2 0.305 /api/attendence/v1/attendences?channel=APP
      2 0.295 /api/attendence/v1/attendences?channel=APP
      2 0.284 /api/attendence/v1/attendences?channel=APP
      2 0.282 /api/attendence/v1/attendences?channel=APP
      2 0.279 /api/attendence/v1/attendences?channel=APP
      4 0.278 /api/attendence/v1/attendences?channel=APP
      2 0.277 /api/attendence/v1/attendences?channel=APP
      2 0.274 /api/attendence/v1/attendences?channel=APP
      8 0.273 /api/attendence/v1/attendences?channel=APP
      3 0.272 /api/attendence/v1/attendences?channel=APP
      6 0.271 /api/attendence/v1/attendences?channel=APP


posted @ 2015-12-07 17:50  梦徒  阅读(1128)  评论(0编辑  收藏  举报