awk分组求和分组统计次数

默北 Linux命令awk分组求和分组统计次数已关闭评论35,4651字数 2232阅读7分26秒阅读模式

分组求和

awk '{s[$1] += $2}END{ for(i in s){  print i, s[i] } }' file1 > file2

以第一列 为变量名  第一列为变量,将相同第一列的第二列数据进行累加打印出和.

awk文章源自运维生存时间-https://www.ttlsa.com/linux-command/awk-group-sum-group-statistics/

awk '{s[$1" "$2] += $3}END{ for(i in s){  print i, s[i] } }'  file1 > file2

以第一列和第二列为变量名, 将相同第一列、第二列的第三列数据进行累加打印出和文章源自运维生存时间-https://www.ttlsa.com/linux-command/awk-group-sum-group-statistics/

awk文章源自运维生存时间-https://www.ttlsa.com/linux-command/awk-group-sum-group-statistics/

awk '{s[$1] += $2; a[$1] += $3 }END{ for(i in s){  print i,s[i],a[i] } }'  haha.txt

如果第一列相同,则根据第一列来分组,分别打印第二列和第三列的和文章源自运维生存时间-https://www.ttlsa.com/linux-command/awk-group-sum-group-statistics/

awk文章源自运维生存时间-https://www.ttlsa.com/linux-command/awk-group-sum-group-statistics/

匹配

1、匹配交集项文章源自运维生存时间-https://www.ttlsa.com/linux-command/awk-group-sum-group-statistics/

awk 'NR==FNR{a[$1]=1}NR>FNR&&a[$1]>0{print $0}'  file1(字段:QQ) file2(字段:QQ 点券值 ) > file3

如果file1、file2中,2个文件的第一列值相同,输出第2个文件的所有列文章源自运维生存时间-https://www.ttlsa.com/linux-command/awk-group-sum-group-statistics/

注意:数据量如果达到4Gb以上或者行数达到一亿级别,建议将file2进行split分割,否则就算是32G的内存的机器都会被吃掉;文章源自运维生存时间-https://www.ttlsa.com/linux-command/awk-group-sum-group-statistics/

awk文章源自运维生存时间-https://www.ttlsa.com/linux-command/awk-group-sum-group-statistics/

 awk 'NR==FNR{a[$1" "$2]=1}NR>FNR&&a[$1" "$2]>0{print $0}'  file1 file2> file3

如果file1、file2中,2个文件的第一列第二列值相同,输出第2个文件的所有列文章源自运维生存时间-https://www.ttlsa.com/linux-command/awk-group-sum-group-statistics/

awk文章源自运维生存时间-https://www.ttlsa.com/linux-command/awk-group-sum-group-statistics/

2、匹配非交集项文章源自运维生存时间-https://www.ttlsa.com/linux-command/awk-group-sum-group-statistics/

  awk 'NR==FNR{a[$1]=1}NR>FNR&&a[$1]<1 {print $0}'  file1 file2 > file3

针对2个文件的第一列做比较,输出:在file2中去除file1中第一列出现过的行文章源自运维生存时间-https://www.ttlsa.com/linux-command/awk-group-sum-group-statistics/

awk文章源自运维生存时间-https://www.ttlsa.com/linux-command/awk-group-sum-group-statistics/

第二种方法:文章源自运维生存时间-https://www.ttlsa.com/linux-command/awk-group-sum-group-statistics/

cat file1 file2|sort |uniq -d > jiaoji.txt
cat file2 jiaoji.txt  |sort |uniq -u > file3

取最大值、最小值

1、针对(2列的文件)文章源自运维生存时间-https://www.ttlsa.com/linux-command/awk-group-sum-group-statistics/

awk '{max[$1]=max[$1]>$2?max[$1]:$2}END{for(i in max)print i,max[i]}'  file

第一列不变,取第二列分组最大值文章源自运维生存时间-https://www.ttlsa.com/linux-command/awk-group-sum-group-statistics/

awk '{if(!min[$1])min[$1]=20121231235959;min[$1]=min[$1]<$2?min[$1]:$2}END{for(i in min)print i,min[i]}' file

第一列不变,取第二列分组最小值文章源自运维生存时间-https://www.ttlsa.com/linux-command/awk-group-sum-group-statistics/

2、针对单列的文件文章源自运维生存时间-https://www.ttlsa.com/linux-command/awk-group-sum-group-statistics/

awk 'BEGIN {max = 0} {if ($1>max) max=$1 fi} END {print "Max=", max}' file2
awk 'BEGIN {min = 1999999} {if ($1<min) min=$1 fi} END {print "Min=", min}' file2

求和、求平均值、求标准偏差

求和文章源自运维生存时间-https://www.ttlsa.com/linux-command/awk-group-sum-group-statistics/

cat data|awk '{sum+=$1} END {print "Sum = ", sum}'

求平均

cat data|awk '{sum+=$1} END {print "Average = ", sum/NR}'

求标准偏差

cat $FILE | awk -v ave=$ave '{sum+=($1-ave)^2}END{print sqrt(sum/(NR-1))}'

整合行和列

1、列换成行

如果第一列相同,将所有的第二列 第三列 都放到一行里面

 awk '{qq[$1]=qq[$1](" "$2" "$3)}END{for(i in qq)print i,qq[i]}'

awk

2、合并文件

2个文件,每个2列,将他们按照第一列相同的数,来合并成一个三列的文件,同时,将每个文件中针对第一列对应第二列中没有的数补0

awk 'FNR==NR{a[$1]=$2}FNR<NR{a[$1]?a[$1]=a[$1]" "$2:a[$1]=a[$1]" 0 "$2}END{for(i in a)print i,a[i]}' file1 file2 > file3

注意点:文件2 一定要比文件1 的行数小

3、2个文件,每个3列,将他们按照第一列、第二列相同的数,来合并成一个4列的文件,同时,将每个文件中针对第一列、第二列对应第3列中没有的数补0

awk 'FNR==NR{a[$1" "$2]=$3}FNR<NR{a[$1" "$2]?a[$1" "$2]=a[$1" "$2]" "$3:a[$1" "$2]=a[$1" "$2]" 0 "$3}END{for(i in a)print i,a[i]}'  file

4、将列换成行,遇到空行,另起下一行

awk 'begin {RS=""} {print $1,$2,$3} file1

5、某列数字范围筛选

cat   canshu |while read a b
do
awk '{ if ($2>'"$a"' && $2<='"$b"' ) print $1}' result.txt  > "$a"_"$b"_result.log
done

注意点:awk使用函数时,使用'"$a"'(先单引号,后双引号)

集合类

awk

1、集合交

cat fileA fileB |sort |uniq –d > result.log

2、集合差

cat fileA fileB     |sort |uniq -d   > jiaoji.txt
cat fileA jiaoji.txt  |sort |uniq -u   > result.log

3、集合全集去重

cat fileA fileB |sort  -u > result.log

4、集合全集不去重

cat fileA fileB |sort     > result.log
weinxin
我的微信
微信公众号
扫一扫关注运维生存时间公众号,获取最新技术文章~
默北
  • 本文由 发表于 03/12/2017 09:55:09
  • 转载请务必保留本文链接:https://www.ttlsa.com/linux-command/awk-group-sum-group-statistics/