• 【网络服务&数据库教程】07 ELK日志解决方案


    1 为什么用到ELK

    ELK 可以单节点部署,也可以集群化部署的日志分析工具

    一般我们需要进行日志分析场景:直接在日志文件中 grep、awk 就可以获得自己想要的信息但在规模较大的场景中,此方法效率低下,面临问题包括日志量太大如何归档、文本搜索检索太慢怎么办、如何多维度查询。需要集中化的日志管理,所有服务器上的日志收集汇总。常见解决思路是建立集中式日志收集系统,将所有节点上的日志统一收集,管理,访问。

    一般大型系统是一个分布式部署的架构,不同的服务模块部署在不同的服务器上,问题出现时,大部分情况需要根据问题暴露的关键信息,定位到具体的服务器和服务模块,构建一套集中式日志系统,可以提高定位问题的效率。

    一个完整的集中式日志系统,需要包含以下几个主要特点:

    收集——能够采集多种来源的日志数据

    传输——能够稳定的把日志数据传输到中央系统

    存储——如何存储日志数据

    分析——可以支持UI分析

    警告——能够提供错误报告,监控机制ELK提供了一整套解决方案,并且都是开源软件,之间互相配合使用,完美衔接,高效的满足了很多场合的应用。目前主流的一种日志系统。

    2 ELK 简介

    ELK是三个开源软件的缩写,分别表示:Elasticsearch , Logstash , Kibana,它们都是开源软件。新增了一个FileBeat 日志收集工具(与 Logstash 结合,而FileBeat 一般会安装在被监控端),它是一个轻量级的日志收集处理工具(Agent),Filebeat占用资源少,适合于在各个服务器上搜集日志后传输给 Logstash,官方也推荐此工具。

    Elasticsearch , Logstash , Kibana三者共同完成日志的收集,分析展示,存储功能

    Elasticsearch 是个开源分布式搜索引擎,提供搜集、分析、存储数据三大功能。它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。Elasticsearch 是一个核心的组件。

    Logstash 主要是用来日志的搜集、分析、过滤日志的工具,支持大量的数据获取方式。一般工作方式为C/S架构,Client 端安装在需要收集日志的主机上,Server端负责将收到的各节点日志进行过滤、修改等操作在一并发往 Elasticsearch上去。其的作用是桥梁,各节点的FileBeat 将日志收集汇总到服务器节点的Logstash 进行初步的搜索,分析,过滤。再将加工好的日志信息发往 Elasticsearch 进行最终检索。

    Kibana 也是一个开源和免费的工具,Kibana可以为Logstash和 ElasticSearch提供的日志分析友好的 Web界面,可以帮助汇总、分析和搜索重要数据日志。其作用是一个Web界面。

    Filebeat隶属于Beats。目前 Beats包含四种工具:

    • Packetbeat(搜集网络流量数据)
    • Topbeat(搜集系统、进程和文件系统级别的CPU和内存使用情况等数据)
    • Filebeat(搜集文件数据)
    • Winlogbeat(搜集Windows事件日志数据)

    img

    3 实验部署

    本次部署的是filebeats(客户端),logstash+elasticsearch+kibana(服务端)组成的架构。

    业务请求到达nginx-server机器上的Nginx;Nginx响应请求,并在 access.log文件中增加访问记录; FileBeat搜集新增的日志,通过LogStash 的5044端口上传日志;LogStash 将日志信息扶过本机的9200端口传入到ElasticSerach;搜索日志的用户通过浏览器访问Kibana,服务器端口是5601;Kibana通过9200端口访问ElasticSerach;

    ELK 组件无法通过命令进行日志的分析,运维同学以及用户需要通过 Kibana 的Web展示页面进行日志的分析和展示

    img

    实验环境:

    本次部署的是单点ELK用了两台机器(CentOS-7.5)

    ELK服务端:10.0.0.110

    Nginx客户端:10.0.0.111

    3.1 准备工作

    配置好网络 Yum 源

    cd /etc/yum.repos.d
    wget http://mirrors.aliyun.com/repo/Centos-7.repo
    wget http://mirrors.aliyun.com/repo/epel-7.repo
    
    • 1
    • 2
    • 3

    关闭防火墙:systemctl stop(disable) firewalld

    关闭SELinux:SELINUX=disabled

    hostnamectl set-hostname elk-server
    hostnamectl set-hostname nginx-server
    
    systemctl disable --now firewalld
    sed -i.bak -r '/^SELINUX/s@(.*)=(.*)@\1=disabled@g' /etc/selinux/config
    
    • 1
    • 2
    • 3
    • 4
    • 5

    3.2 下载并安装软件包

    mkdir -p /elk ; cd /elk
    #wget -c https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.0.0-linux-x86_64.tar.gz
    #wget -c https://artifacts.elastic.co/downloads/kibana/kibana-7.0.0-linux-x86_64.tar.gz
    #wget -c https://artifacts.elastic.co/downloads/logstash/logstash-7.0.0.tar.gz
    
    wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-6.2.3.tar.gz
    wget https://artifacts.elastic.co/downloads/logstash/logstash-6.2.3.tar.gz 
    wget https://artifacts.elastic.co/downloads/kibana/kibana-6.2.3-linux-x86_64.tar.gz
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    全部解压缩,并复制到/usr/local/目录下

    cd /elk
    for file in * ;do tar -xvf $file -C /usr/local/ ;done
    ln -sv /usr/local/elasticsearch-6.2.3 /usr/local/elasticsearch
    ln -sv /usr/local/kibana-6.2.3-linux-x86_64 /usr/local/kibana
    ln -sv /usr/local/logstash-6.2.3 /usr/local/logstash
    
    chown -R root.root /usr/local/elasticsearch-6.2.3
    chown -R root.root /usr/local/kibana-6.2.3-linux-x86_64
    chown -R root.root /usr/local/logstash-6.2.3
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9

    3.3 安装JDK(Java)环境工具

    yum install -y java-1.8*
    
    • 1

    3.4 配置elasticsearch

    1)新建elasticsearch用户并启动(用elasticsearch普通用户启动)

    useradd -c "elasticsearch user" elasticsearch
    chown -R elasticsearch.elasticsearch /usr/local/elasticsearch-6.2.3/
    su - elasticsearch
    cd /usr/local/elasticsearch-6.2.3/
    ./bin/elasticsearch -d
    
    • 1
    • 2
    • 3
    • 4
    • 5

    2)查看进程是否启动成功(等待一下)

    netstat -antlp | grep java
    #查看是否拥有 9200 端口
    
    • 1
    • 2

    img

    3)若出现错误可以查看日志

    cat /usr/local/elasticsearch-6.2.3/logs/elasticsearch.log
    
    • 1

    4)测试是否可以正常访问

    curl localhost:9200
    
    • 1

    img

    3.5 配置 logstash

    Logstash收集nginx日志之使用grok过滤插件解析日志,grok作为一个logstash的过滤插件,支持根据模式解析文本日志行,拆成字段。

    1)logstash 中 grok 的正则匹配

    cd /usr/local/logstash-6.2.3/
    vim vendor/bundle/jruby/2.3.0/gems/logstash-patterns-core-4.1.2/patterns/grok-patterns
    #最后行添加以下即可
    # Nginx log
    WZ ([^ ]*)
    NGINXACCESS %{IP:remote_ip} \- \- \[%{HTTPDATE:timestamp}\] "%{WORD:method} %{WZ:request} HTTP/%{NUMBER:httpversion}" %{NUMBER:status} %{NUMBER:bytes} %{QS:referer} %{QS:agent} %{QS:xforward}
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    2)创建logstash 配置文件

    vim /usr/local/logstash-6.2.3/default.conf
    #数据的入口
    input {
        beats {
            port => "5044"
        }
    }
    #数据过滤
    filter {
        grok {
            match => { "message" => "%{NGINXACCESS}" }
        }
        geoip {
            #nginx客户端IP
            source => "10.0.0.111"
        }
    }
    #输出配置为本机的9200端口,这是elasticsearch服务的监听端口
    output {
        elasticsearch {
            hosts => ["127.0.0.1:9200"]
        }
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23

    3)进入/usr/local/logstash-6.2.3/目录下,并执行下列命令

    cd /usr/local/logstash-6.2.3/
    #后台启动logstash
    nohup bin/logstash -f default.conf &
    #查看启动日志
    tailf nohup.out
    #查看端口是否启动
    netstat -antlp | grep 5044
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    img

    3.6 配置Kibana

    1)打开Kibana配置文件/usr/local/kibana-6.2.3-linux-x86_64/config/kibana.yml,找到下面这行并修改.

    vim /usr/local/kibana-6.2.3-linux-x86_64/config/kibana.yml
    #server.host: "localhost"
    修改为:
    server.host: "10.0.0.110"
    
    #这样其他电脑就能用浏览器访问kibana的服务了
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    2)进入Kibana的目录:cd /usr/local/kibana-6.2.3-linux-x86_64

    cd /usr/local/kibana-6.2.3-linux-x86_64
    #执行启动命令
    nohup bin/kibana &
    #查看启动日志
    tail -f nohup.out
    #查看端口是否启动
    netstat -antlp | grep 5601
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    img

    3)测试

    在浏览器访问 10.0.0.110:5601;能够访问到该页面即 ELK 服务器端部署完成

    img

    到此。ELK 部署完成

    3.7 Nginx 客户端配置

    1)yum 安装二进制 nginx 软件包

    yum install -y nginx
    systemctl enable --now nginx
    
    • 1
    • 2

    2)下载 filebeat 并解压到 /usr/local

    wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-6.2.3-linux-x86_64.tar.gz
    tar -xvf filebeat-6.2.3-linux-x86_64.tar.gz -C /usr/local/
    
    • 1
    • 2

    3)打开文件/usr/local/filebeat-6.2.3-linux-x86_64/filebeat.yml,找到如下位置:修改三处

    vim /usr/local/filebeat-6.2.3-linux-x86_64/filebeat.yml
    enable: false										#修改为true
    paths:/var/log/*.log						#修改为/var/log/nginx/*.log
    #output.elasticsearch:					#将此行注释掉
    #hosts: ["localhost:9200"]			#将此行注释掉
    output.logstash:								#取消此行注释
    hosts: ["10.0.0.110:5044"]			#取消此行注释并修改地址为ELK服务器地址
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    4)切换到/usr/local/filebeat-6.2.3-linux-x86_64目录下

    cd /usr/local/filebeat-6.2.3-linux-x86_64
    #后台启动filebeat
    nohup ./filebeat -e -c filebeat.yml &
    #查看日志
    tail -f nohup.out
    
    • 1
    • 2
    • 3
    • 4
    • 5

    5)通过浏览器多访问几次 nginx服务,这样能多制造一些访问日志,访问地址: http://10.0.0.111

    while true ; do curl http://10.0.0.111 ;done
    
    • 1

    6)访问Kibana: https://10.0.0.110:5601,点击左上角的Discover,就可以看到访问日志已经被 ELK 搜集了,然后按照下列步骤完成设置

    • 输入logstash-*,点击”Next step”
    • 选择Time Filter,再点击“Create index pattern“
    • 然后可自行创建日志内容查询规则

    img

    img

    img

    可以在Search进行检索、分组日志信息。

  • 相关阅读:
    Latex 报错:The font cannot be found.
    DO280OpenShift访问控制--管理项目和账户
    Java中SpringBoot四大核心组件是什么
    MySQL数据库
    【金九银十】343道Java面试真题整理,将每道经典题详汇
    轻松合并Excel工作表:Java批量操作优化技巧
    【校招VIP】产品思维考察之创意能力
    51单片机控制电动机正反转,PWM调速,记录转动圈数。
    Educational Codeforces Round 156 (Rated for Div. 2) - B+C
    非谓语动词
  • 原文地址:https://blog.csdn.net/weixin_40274679/article/details/126800947