浅析 awk 文本分析

作者: Lee_DH | 来源:发表于2017-10-09 13:56 被阅读63次

作用

awk 逐行读取文件,以空格为分隔符将每行切片,切开的部分再进行各种分析处理

格式

awk {option} 'pattern + {action}' {filenames}

option:
  • -F 自定义每行切片时的分隔符,默认空格,也可以使用 fs 定义空格符
  • -v 变量赋值(例:awk -v path=$PATH)
  • -f 从脚本文件中读取awk命令
pattern(不能被{ }包裹):
  • 正则表达式 例:cat 111 | awk ' /^li/ {print $0}' 匹配每行以li开头的记录
  • 关系表达式 例:cat 111 | awk 'NR==2 {print $0}' 只输出第二条记录
  • 模式匹配表达式 例:cat 111 | awk ':' '$1~/zarafa/ {print $0}' 匹配第一列包含zarafa的记录,与关系表达式相比,只是模糊比较,不是精确比较(~匹配 ~!不匹配)
  • BEGIN END 模块,awk 'BEGIN{ commands } pattern{ commands } END{ commands }',先执行BEGIN后面的 commands 语句,一般用作自定义变量,输入表头等,只执行一次,再逐行扫描文件,从第一行到最后一行重复执行 pattern{ commands } 语句,最后执行END后面的 commands 语句,只执行一次,一般用作分析结果、数据汇总的输出
  • awk也是一种编程语言,pattern中完美支持do whilewhileforcontinuebreak以及数组等语法
action:
  • print 一般的行为就是打印结果,真正的分析处理数据过程在pattern中
  • 存在多个action时结尾必须用;分隔

常用内置变量

  • $n 当前读取行的第n个字段
  • $0 当前行的所有内容
  • FILENAME 当前输入文件名
  • NF 当前行的字段数
  • NR 当前行的行号
  • FS 字段分隔符(和-F参数作用相同,可自定义字段分隔符)
  • OFS 自定义输出字段分隔符(加O表示outfile)
  • RS 行间分隔符(可自定义行与行输出时的分隔符)
  • ORS 自定义输出行间分隔符(加O表示outfile)

基础实例(基础案例引用自 linux awk命令详解 - ggjucheng

  • last -n 5 | awk '{print $1}' 显示最近登录的5个账户
  • cat /etc/passwd | awk -F ':' '{print $1}' 显示 /etc/passwd 的账户
  • cat /etc/passwd | awk -F ':' '{print $1"\t"$7}' 显示 /etc/passwd 的账户和shell,以Tab键分割
  • cat /etc/passwd | awk -F ':' 'BEGIN{print "start"} {print $1","$7} END {print "over"}' 显示 /etc/passwd 的账户和shell,以逗号分割,并且在数据的首尾增加start、over标识
  • cat /etc/passwd | awk '/root/ {print $0}' 输出 /etc/passwd 有 root 关键字的行
  • cat /etc/passwd | awk -F ":" ' {count++;} END {print count;}'
    cat /etc/passwd | awk -F ':' 'END {print NR}'
    统计 /etc/passwd 账户人数
  • ls -l | awk '{sum=sum+$5} END {print sum}' 统计某个文件夹下文件占用字节数
  • ls -l | awk '$5>5120 {print $0}' 输出某个文件夹下文件字节数大于5K的文件
  • cat /etc/passwd | awk -F ":" '{print $1,$3}' OFS="---" 将输出的分隔符改为---

运维案例(运维案例引用自 Awk使用案例总结(运维必会)

处理文件

Nginx日志 /usr/local/nginx1.2.2/logs/access.log

文件格式
127.0.0.1  [31/Aug/2017:00:01:01 +0800] "POST /index.php HTTP/1.1" 200 1540 "-" "-" "xxxxxx" xxxxxx"
具体案例
  • 统计日志中访问最多的10个IP
    awk '{a[$1]++;} END {for(i in a) print a[i] "\t" i | "sort -k1 -nr | head -n10 "}' access.log
    利用a[$1]++;,实现IP去重,并且统计IP出现的次数,之后再利用sort命令,按照第一列的数值倒叙排序,输出前10行

  • 统计日志中访问大于100次的IP
    awk '{a[$1]++;} END {for(i in a) if(a[i]>100) print a[i]"\t"i | "sort -k1 -nr | head -n 10" }' access.log

  • 倒叙列打印文件

倒叙列转化
cat 222.txt | awk '{for(i=NF; i>=1; i--) {printf "%s ",$i}print s}'(print s 打印一个换行符)
  • 从第2列打印到最后
从第2列打印到最后
cat 222 | awk '{for(i=2;i<=NF;i++) {printf"%s ",$i}print s}'

相关文章

  • 浅析 awk 文本分析

    作用 awk 逐行读取文件,以空格为分隔符将每行切片,切开的部分再进行各种分析处理 格式 awk {option}...

  • linux中的awk命令详解

    1、AWK简介 AWK是一种处理文本文件的语言,是一个强大的文本分析工具。 2、AWK语法 awk [选项参数] ...

  • Nginx访问量统计

    1、awk是什么?及awk基本用法。 awk 是一种处理文本文件的语言,是一个强大的文本分析工具。 awk 其实不...

  • 从零开始学习Linux(四十三):Shell编程之awk命令

    1、awk命令简介 awk命令是一种处理文本文件的语言,是一个强大的文本分析工具。awk命令也可以叫awk编程,能...

  • Linux常用命令

    awk 文本分析 举个例子 按corpid统计访问pv:cat access.log | awk -F ',' '...

  • awk命令详解

    背景 AWK是一种处理文本文件的语言,是一个强大的文本分析工具 awk的基本用法 文本内容: 2 this is ...

  • M25_第九周:awk

    [TOC] AWK介绍 awk是一个强大的文本分析工具,相对于grep的查找,sed的编辑,awk在其对数据分析并...

  • awk

    awk awk是一种处理文本的语言,是一个强大的文本分析工具,awk是以列为划分记数的,$0表示所有列,$1表示第...

  • awk

    AWK 是一种处理文本文件的语言,是一个强大的文本分析工具。 确认是否安装awk 命令行输入:which awk ...

  • Shell脚本之awk详解

    一.基本介绍 1.awk: awk是一个强大的文本分析工具,在对文本文件的处理以及生成报表,awk是无可替代的。a...

网友评论

    本文标题:浅析 awk 文本分析

    本文链接:https://www.haomeiwen.com/subject/gynbextx.html