文本处理三剑客之AWK的用法

1.awk命令简介:
awk是一种可以处理数据、产生格式化报表的语言,功能十分强大。
awk的工作方式是读取数据,将每一行数据视为一条记录(record)每笔记录以字段分隔符分成若干字段,然后输出各个字段的值.

2.awk常用的作用格式:
awk “样式” 文件: 把符合样式的数据行显示出来。
awk { 操作 } 文件: 对每一行都执行{}中的操作。
awk " 样式 { 操作 }" 文件: 对符合样式的数据行,执行{}中的操作.

3.用例:
awk的用法1:

awk `/La/` dataf3       #显示含La的行。

awk的用法2:

awk -F ":" '{print $1,$2}' /etc/passwd  #以“:”为分割,显示/etc/passwd每一行的第1和第2个字段。$1代表第1个字段,$2代表第2个字段,其他类推.

awk的用法3:

awk '/La/{ print $1,$2 }' dataf3  #将含有La关键字的数据行的第1及第2个字段显示出来.默认使用空格分割.

awk的用法4:

awk -F : '/^www/{print $3,$4}' /etc/passwd  # 使用选项 -F,指定:为分隔符,账号www的uid(第3个字段)及gid(第4个字段)显示出来.

awk的用法5:

[root@localhost~]# awk -F : '/^r/{print $1}' /etc/passwd		#显示以r开头的行的第一个字段
root
rpc
rpcuser

awk的用法6:

[root@localhost~]# awk -F : '$3>=500{print $1,$3}' /etc/passwd	#找出$3这个字段的id大于等于500的行,并显示1、3列
www 500
cacti 501
nagios 502
vsftpd 503

awk的用法7:

[root@localhost~]# awk -F : '$7~"bash"{print $1,$7}' /etc/passwd 		#匹配出$7是bash的行,如果为真则打印出来
root /bin/bash
mysql /bin/bash
www /bin/bash
cacti /bin/bash
nagios /bin/bash

awk的用法8:

[root@localhost~]# awk -F : '$7!~"bash"{print $1,$7}' /etc/passwd		#取出$7不是bash的行并打印出来
bin /sbin/nologin
daemon /sbin/nologin
adm /sbin/nologin
lp /sbin/nologin
sync /bin/sync
shutdown /sbin/shutdown

awk扩展:

实例操作:
[root@localhost]# more awk.txt

07.46.199.184 [28/Sep/2010:04:08:20] "GET /robots.txt HTTP/1.1" 200 0 "msnbot"123.125.71.19 [28/Sep/2010:04:20:11] "GET /
HTTP/1.1" 304 - "Baiduspider

NF的用法:

1. $NF 来打印最后一个字段:

[root@localhost]# awk '{print $NF}' awk.txt     
/
"Baiduspider

2. $(NF-2):表示从右向左打印每行第二个字段.  

[root@localhost]# awk '{print $(NF-2)}' awk.txt 
[28/Sep/2010:04:20:11]
304

BEGIN{}区域指示用法:

1.OFS的作用是存储输出字段的分隔符

[root@localhost~]# awk -F : 'BEGIN{OFS="+++"}/^www/{ print $1 , $2 , $3 , $4 ,$5 }' /etc/passwd      
www+++x+++500+++500+++

# 以 ":" 为分隔符,+++为输出字段分隔符,将账号www用户的第1-5栏显示出来.
本例中,BEGIN{}区域指示awk一开始先做初始化的操作,即设定OFS="+++".变量OFS的作用是存储输出字段的分隔符.接着,寻找www的账户行找到后,使用print印出第1至第5个字段,且彼此使用+++隔开.

2.FS也就是字段分隔符的用法:指定输入分隔符---读取文本时,所使用的字段分隔符.

[root@localhost]# awk '{print $2}' awk.txt | awk 'BEGIN{FS=":"}''{print $1}'
[28/Sep/2010

3.RS表示记录分割符--输入文本信息所使用的换行符

从tomcat日志catalina.out中截取2014-10-13日,在07:00-15:00时间段的日志记录,并保存.

awk 'BEGIN{RS="2014-10-13"}$1>"07:00:00"&&$1<"15:50:00"{print RS,$0}' catalina.out > catalins_link.log
       FS表示操作的时候以什么为分割符
       RS表示记录分割符(Record Separator)
       即RS表示的是awk操作最小单位的边界,而FS是这个最小单位中分割的符号

NR :表示打印当前正在处理的输入的行号

awk '{print NR ") " $1 " -> " $(NF-2)}' awk.txt
其中:
        print NR :表示打印当前正在处理的输入的行号
              “ )”:表示以半括号将行号括起来.也可以换成任意的符号,如 ]、#、@、等

               $1:  表示打印出第一列的数据.

       $(NF-2): 表示从后向前打印出倒数两列数据. 

输出:

1) 07.46.199.184 -> 2002) 123.125.71.19 -> 304

常用操作:

取得系统内存大小:

cat /proc/meminfo | awk '/MemTotal/{ print $2 }' 

从catalina.out中截取2014-10-13日,在07:00-15:00时间段的日志记录,并保存.

awk 'BEGIN{RS="2014-10-13"}$1>"07:00:00"&&$1<"15:50:00"{print RS,$0}' catalina.out > 11106.log

过滤出nginx日志中状态码不是200的请求.

cat access.log |awk '$10!="200"{print $10}'

awk '$9 !~ /200/ {print $0}' access.log 

统计访问时间大于5mm的URL,并进行排序

awk '$NF>5 {print $0}' access_mmall.log|awk '{print $12}'|awk -F? '{print $1}'|sort|uniq -c|sort -rbg

用awk来实现奇数行和偶数行的输出,思路很简单,就是判断NR变量。NR是行号,行号是2的倍数,自然是偶数行。 

要处理的文件内容如下所示:

$ cat 1.txt 
1       Jan
2       Feb
3       Mar
4       Apr
5       May
6       Jun
7       Jul
8       Aug
9       Sep
10      Oct
11      Nov
12      Dec

输出奇数行:

不加{print}语句也能默认输出整行,例如

$ awk NR%2 1.txt  
1       Jan
3       Mar
5       May
7       Jul
9       Sep
11      Nov

如果还不懂看这个你就懂了,用NR对2取模,当余数为1时,awk的执行模式判断为真,就会执行默认的{print}输出奇数行,当余数不为1时,判断为假,不执行输出,所以偶数行就不会输出。

$ awk '{if(NR%2==1)print $0}' 1.txt       
1       Jan
3       Mar
5       May
7       Jul
9       Sep
11      Nov

输出偶数行

$ awk NR%2==0 1.txt  
2       Feb
4       Apr
6       Jun
8       Aug
10      Oct
12      Dec

或者用如下方法取反,也可以去除偶数行.

$ awk '!(NR%2)' 1.txt 
2       Feb
4       Apr
6       Jun
8       Aug
10      Oct
12      Dec

 

 

posted @ 2016-05-12 11:20  梦徒  阅读(13905)  评论(0编辑  收藏  举报