• 查看IP访问量的shell脚本汇总


    一些用于查看ip访问量的shell脚本,另外一些还可以查看time_wait连接,syn连接的脚本,可以用来分析网络的状况.。

    首先我的nginx的access日志文件是存放在我的Linux机器上的:/var/log/nginx/sc/access.log

    目录

    1、首先第一部分:网站日志分析(nginx日志)

    1、获取访问前10为的ip地址

     2、访问次数最多的文件或页面,获取前20及统计所有访问IP

    3、列出传输最大的几个exe文件(分析下载的时候常用)

    4、列出输出大于200000byte(约200kb)的exe文件以及对应文件发生次数

    5、如果日志最后一列记录的是页面文件传输时间,则有列出到客户端最耗时的页面

    6、统计网站流量(G)

    7、统计404的连接

    8、统计http status

    2、第二部分:与连接相关的

    1、查看TCP连接状态

    2、 查找请求数请20个IP(常用于查找攻来源)

    3、 用tcpdump嗅探80端口的访问看看谁最高

    4、根据端口列进程

    5、查找较多time_wait连接

    6、找查较多的SYN连接

    1、首先第一部分:网站日志分析(nginx日志)

    1、获取访问前10为的ip地址

    三种方法:

    sort -nr 是指将数字进行倒叙排序,-n是按照数字排序,-r是指倒叙排序。

    sort -k2 -nr :k2按照第二列进行排序,-nr:是指将数字进行倒叙排序。

    uniq -c去重:其中-c是count:检查文件并删除文件中重复出现的行,并在行首显示该行重复出现的次数。

    第一种:cat access.log|awk '{print $1}'|sort|uniq -c|sort -nr|head -10

    其中的cat access.log将文本内容打印到屏幕。grep -v "^$" 去除空行。awk -F" " '{print $1}:表示用空格作为分隔符进行分割,打印出第1列。 sort 进行排序,默认是按照ascii码进行排序的。

    -d, --delimiter delim:指定在-f参数中的field-list的分割符(为delim中的第一个字符,缺省为TAB).

    awk -F ' ':指定分隔符为空格

    第二种:cat access.log |grep -v "^$"|awk -F ' ' '{print $1}'|sort|uniq -c|sort -n -r|head -n 10

    第三种:cut -d" " -f1 access.log |sort|uniq -c|sort -nr|head -1

    1. [root@nginx-kafka01 sc]# cat access.log|awk '{print $1}'|sort|uniq -c|sort -nr|head -10
    2. 22 192.168.2.123
    3. 10 192.168.2.114
    4. 5 192.168.2.135
    5. 3 192.168.2.124
    6. 2 192.168.2.148
    7. 2 192.168.2.145
    8. 1 192.168.2.112
    9. 1 192.168.2.104
    1. [root@nginx-kafka01 sc]# cat access.log |grep -v "^$"|awk -F ' ' '{print $1}'|sort|uniq -c|sort -n -r|head -n 10
    2. 22 192.168.2.123
    3. 10 192.168.2.114
    4. 5 192.168.2.135
    5. 3 192.168.2.124
    6. 2 192.168.2.148
    7. 2 192.168.2.145
    8. 1 192.168.2.112
    9. 1 192.168.2.104
    1. [root@nginx-kafka01 sc]# cut -d" " -f1 access.log |sort|uniq -c|sort -nr|head -10
    2. 22 192.168.2.123
    3. 10 192.168.2.114
    4. 5 192.168.2.135
    5. 3 192.168.2.124
    6. 2 192.168.2.148
    7. 2 192.168.2.145
    8. 1 192.168.2.112
    9. 1 192.168.2.104

     2、访问次数最多的文件或页面,获取前20及统计所有访问IP

    cat access.log|awk '{print $11}'|sort|uniq -c|sort -nr|head -20

    1. [root@nginx-kafka01 logs]# cat access.log|awk '{print $11}'|sort|uniq -c|sort -nr|head -20
    2. 71 "-"
    3. 16 "http://192.168.119.144/"
    4. 12 "http://192.168.2.152/"
    5. 6 "http://192.168.119.145/"
    6. 5 "http://www.sc.com/"
    7. 3 "http://192.168.119.152/"

    统计访问的ip地址一共有多少个:awk '{ print $1}' access.log |sort -n -r |uniq -c|wc -l

    [root@nginx-kafka01 logs]# awk '{ print $1}' access.log |sort -n -r |uniq -c|wc -l
    5

    3、列出传输最大的几个exe文件(分析下载的时候常用)

    cat access.log |awk '($7~/\.exe/){print $10,$1,$4,$7}'|sort -nr|head -2

    4、列出输出大于200000byte(约200kb)的exe文件以及对应文件发生次数

    cat access.log |awk '($10 > 200000 && $7~/\.exe/){print $7}'|sort -n|uniq -c|sort -nr|head -100

    5、如果日志最后一列记录的是页面文件传输时间,则有列出到客户端最耗时的页面

    NF指的是最后一个字段。NR是指定行号。FS是指定分隔符。OFS是

     cat access.log |awk '($7~/\.php/){print $NF ,$1,$4,$7}'|sort -nr|head -10

    6、统计网站流量(G)

    cat access.log |awk '{sum+=$10} END {print sum/1024/1024/1024}'

    1. [root@nginx-kafka01 sc]# cat access.log |awk '{sum+=$10} END {print sum/1024/1024/1024}'
    2. 1.01496e-05

    7、统计404的连接

    awk '($9 ~/404/)' access.log | awk '{print $9,$7}' | sort

    1. [root@nginx-kafka01 logs]# awk '($9 ~/404/)' access.log | awk '{print $9,$7}' | sort
    2. 404 /favicon.ico
    3. 404 /favicon.ico
    4. 404 /favicon.ico
    5. 404 /favicon.ico
    6. 404 /favicon.ico
    7. 404 /favicon.ico
    8. 404 /favicon.ico
    9. 404 /favicon.ico
    10. 404 /sc.html
    11. 404 /v2-d57147dc41ee118a86f03bfb20b1ce25_r.jpg?source=1940ef5c
    12. 404 /v2-d57147dc41ee118a86f03bfb20b1ce25_r.jpg?source=1940ef5c
    13. 404 /v2-d57147dc41ee118a86f03bfb20b1ce25_r.jpg?source=1940ef5c

    8、统计http status

    cat access.log |awk '{counts[$(9)]+=1}; END {for(code in counts) print code, counts[code]}'
    cat access.log |awk '{print $9}'|sort|uniq -c|sort -rn
    1. [root@nginx-kafka01 sc]# cat access.log |awk '{counts[$(9)]+=1}; END {for(code in counts) print code, counts[code]}'
    2. 304 26
    3. 200 12
    4. 404 8
    5. [root@nginx-kafka01 sc]# cat access.log |awk '{print $9}'|sort|uniq -c|sort -rn
    6. 26 304
    7. 12 200
    8. 8 404

    2、第二部分:与连接相关的

    1、查看TCP连接状态

    netstat -nat |awk '{print $6}'|sort|uniq -c|sort -rn
    netstat -n | awk '/^tcp/ {++S[$NF]};END {for(a in S) print a, S[a]}'
    netstat -n | awk '/^tcp/ {++S[$NF]};END {for(a in S) print a, S[a]}'
    netstat -n | awk '/^tcp/ {++arr[$NF]};END {for(k in arr) print k,"\t",arr[k]}'
    netstat -n |awk '/^tcp/ {print $NF}'|sort|uniq -c|sort -rn
    netstat -ant | awk '{print $NF}' | grep -v '[a-z]' | sort | uniq -c
    1. [root@nginx-kafka01 logs]# netstat -nat |awk '{print $6}'|sort|uniq -c|sort -rn
    2. 8 LISTEN
    3. 1 Foreign
    4. 1 ESTABLISHED
    5. 1 established)
    6. [root@nginx-kafka01 logs]# netstat -n | awk '/^tcp/ {++S[$NF]};END {for(a in S) print a, S[a]}'
    7. ESTABLISHED 1
    8. [root@nginx-kafka01 logs]# netstat -n | awk '/^tcp/ {++S[$NF]};END {for(a in S) print a, S[a]}'
    9. ESTABLISHED 1
    10. [root@nginx-kafka01 logs]# netstat -n | awk '/^tcp/ {++arr[$NF]};END {for(k in arr) print k,"\t",arr[k]}'
    11. ESTABLISHED 1
    12. [root@nginx-kafka01 logs]# netstat -n |awk '/^tcp/ {print $NF}'|sort|uniq -c|sort -rn
    13. 1 ESTABLISHED
    14. [root@nginx-kafka01 logs]# netstat -ant | awk '{print $NF}' | grep -v '[a-z]' | sort | uniq -c
    15. 1 ESTABLISHED
    16. 8 LISTEN
    17. [root@nginx-kafka01 logs]# netstat -ant|awk '/ip:80/{split($5,ip,":");++S[ip[1]]}END{for (a in S) print S[a],a}' |sort -n

    2、 查找请求数请20个IP(常用于查找攻来源)

    netstat -anlp|grep 80|grep tcp|awk '{print $5}'|awk -F: '{print $1}'|sort|uniq -c|sort -nr|head -n20

    netstat -ant |awk '/:80/{split($5,ip,":");++A[ip[1]]}END{for(i in A) print A[i],i}' |sort -rn|head -n20

    1. [root@nginx-kafka01 logs]# netstat -anlp|grep 80|grep tcp|awk '{print $5}'|awk -F: '{print $1}'|sort|uniq -c|sort -nr|head -n20
    2. 1 34.120.177.193
    3. 1 0.0.0.0
    4. [root@nginx-kafka01 logs]# netstat -ant |awk '/:80/{split($5,ip,":");++A[ip[1]]}END{for(i in A) print A[i],i}' |sort -rn|head -n20
    5. 1 0.0.0.0

    3、 用tcpdump嗅探80端口的访问看看谁最高

     tcpdump -i ens33  dst port 80 -c 1000 | awk -F"." '{print $1,$2,$3,$4}' | sort | uniq -c | sort -nr |head -20

    4、根据端口列进程

    netstat -ntlp | grep 80 | awk '{print $7}' | cut -d/ -f1

    1. [root@nginx-kafka01 logs]# netstat -ntlp | grep 80 | awk '{print $7}' | cut -d/ -f1
    2. 6769

    5、查找较多time_wait连接

    netstat -n|grep TIME_WAIT|awk '{print $5}'|sort|uniq -c|sort -rn|head -n20
    [root@nginx-kafka01 sc]# netstat -n|grep TIME_WAIT|awk '{print $5}'|sort|uniq -c|sort -rn|head -n20
    

    6、找查较多的SYN连接

    netstat -an | grep SYN | awk '{print $5}' | awk -F: '{print $1}' | sort | uniq -c | sort -nr | more
    
  • 相关阅读:
    HIve数仓新零售项目DWS层的构建(Full join)模型
    关于序列化协议,你需要知道的一些内容(2)
    Zig标准库:最全数据结构深度解析(1)
    桌面云涉及到的概念
    day14-HTTP01
    MySQL —— 索引
    Word控件Spire.Doc 【文本】教程(8) ;如何在 C#、VB.NET 中的确切位置将文本插入 Word
    基于C语言实现的SML简单程序设计
    Python集合详细教程
    arcgis创建postgre企业级数据库
  • 原文地址:https://blog.csdn.net/m0_52165864/article/details/126291551