• ELK日志收集系统集群实验(5.5.0版)


    目录

    前言

    一、概述

    二、组件介绍

    1、elasticsearch

    2、logstash

    3、kibana

    三、架构类型

    四、ELK日志收集集群实验

    1、实验拓扑

    2、在node1和node2节点安装elasticsearch

    3、启动elasticsearch服务

    4、在node1安装elasticsearch-head插件

    5、测试输入

    6、node1服务器安装logstash

    7、logstash日志收集文件格式(默认存储在/etc/logstash/conf.d)

    8、node1节点安装kibana

    五、配置http节点



    前言

    ELK是指Elasticsearch、Logstash和Kibana的组合。它们是一套开源的日志收集、存储、搜索和可视化系统,常用于集中管理和分析日志数据。

    1. Elasticsearch:一个分布式的实时搜索和分析引擎。它能够处理大规模的数据,并提供快速的搜索、聚合和数据分析功能。

    2. Logstash:一个用于日志收集、处理和传输的工具。它支持从多种来源收集日志数据,可以进行数据清洗、转换和过滤,并将数据发送到Elasticsearch等目标存储。

    3. Kibana:一个用于数据可视化和分析的工具。它可以通过图表、仪表盘和报表等方式,直观地展示Elasticsearch中的数据,帮助用户理解和分析日志。

    ELK日志收集系统的工作流程如下:
    1. Logstash配置:在Logstash中配置输入插件,指定日志数据的来源,如文件、网络或消息队列等。
    2. 数据处理:通过Logstash的过滤插件对日志数据进行清洗、转换和过滤,使其符合需要,然后将处理后的数据发送到Elasticsearch。
    3. 数据存储:Elasticsearch将接收到的日志数据进行索引并存储,以便快速搜索和分析。
    4. 数据可视化:使用Kibana创建图表、仪表盘和报表等可视化组件,通过搜索和聚合数据,展示日志数据的统计信息和趋势。
    5. 实时搜索和分析:通过Kibana提供的搜索功能,可以实时搜索和分析日志数据,帮助发现问题、监控系统和进行性能优化。

    ELK日志收集系统的优点包括:
    - 高效处理大规模日志数据:Elasticsearch作为存储和搜索引擎,能够处理大规模的日志数据。
    - 灵活的数据处理和过滤:Logstash提供了丰富的插件和过滤器,可以对日志数据进行灵活的处理和转换。
    - 直观的数据可视化:Kibana提供了图形化的界面,以直观的方式展示日志数据的统计信息和趋势。
    - 实时搜索和分析:ELK系统支持实时搜索和分析,可以帮助快速定位和解决问题。

    总之,ELK日志收集系统是一个功能强大的工具组合,可以帮助企业集中管理、存储、搜索和可视化大量的日志数据,提高系统的监控和故障排查能力。


    一、概述

    1、ELK由三个组件构成Elasticsearch、Logstash和Kibana的组合

    日志收集Logstash
    日志分析Elasticsearch
    日志可视化Kibana

       
    2、 为什么使用?
        日志对于分析系统、应用的状态十分重要,但一般日志的量会比较大,并且比较分散。
        如果管理的服务器或者程序比较少的情况我们还可以逐一登录到各个服务器去查看、分析。但如果服务器或者程序的数量比较多了之后这种方法就显得力不从心。基于此,一些集中式的日志系统也就应用而生。目前比较有名成熟的有,Splunk(商业)、FaceBook 的Scribe、Apache的Chukwa Cloudera的Fluentd、还有ELK等等。
        

    二、组件介绍

    1、elasticsearch

    作用:日志分析、开源的日志收集、分析、存储程序

    特点:

    分布式
    零配置
    自动发现
    索引自动分片
    索引副本机制
    Restful风格接口
    多数据源
    自动搜索负载

    2、logstash

    作用:日志收集 、搜集、分析、过滤日志的工具

    工作的过程:

    一般工作方式为c/s架构,Client端安装在需要收集日志的服务器上,Server端负责将收到的各节点日志进行过滤、修改等操作,再一并发往Elasticsearch上去
    Inputs → Filters → Outputs
    输入-->过滤-->输出

    inputs(输入)
    File:从文件系统的文件中读取,类似于tail -f命令
    Syslog:在514端口上监听系统日志消息,并根据RFC3164标准进行解析
    Redis:从redis service中读取
    Beats:从filebeat中读取
    FILETER(过滤)
    Grok:解析任意文本数据,Grok 是 Logstash 最重要的插件。它的主要作用就是将文本格式的字符串,转换成为具体的结构化的数据,配合正则表达式使用。
    官方提供的grok表达式:logstash-patterns-core/patterns at main · logstash-plugins/logstash-patterns-core · GitHub
    Grok在线调试:Grok Debugger
    Mutate:对字段进行转换。例如对字段进行删除、替换、修改、重命名等。
    Drop:丢弃一部分Events不进行处理。
    Clone:拷贝Event,这个过程中也可以添加或移除字段。
    Geoip:添加地理信息(为前台kibana图形化展示使用)
    OUTPUTS(输出)
    Elasticsearch:可以高效的保存数据,并且能够方便和简单的进行查询。
    File:将Event数据保存到文件中。
    Graphite:将Event数据发送到图形化组件中,踏实一个当前较流行的开源存储图形化展示的组件。
    3、kibana

    作用:日志可视化

    为Logstash和ElasticSearch在收集、存储的日志基础上进行分析时友好的Web界面,可以帮助汇总、分析和搜索重要数据日志。

    三、架构类型

    1、ELK
        es
        logstash
        kibana

    2、ELKK
        es
        logstash
        kafka
        kibana

    3、ELFK
        es
        logstash  重量级 、占用系统资源较多
        filebeat    轻量级、占用系统资源较少
        kibana

    4、ELFKK
        es
        logstash
        filebeat
        kafka
        kibana

    四、ELK日志收集集群实验

    1、实验拓扑

    在进行本实验时至少每台主机给到2核4G。不然嘿嘿~~你懂得。

    下载地址 https://elasticsearch.cn/download/

    在node1和node2设置主机名

    1. ####分别修改主机名#####
    2. ###node1
    3. hostnamectl set-hostname node1
    4. echo "192.168.115.131 node1" "192.168.115.136 node2" >> /etc/hosts
    5. scp /etc/hosts 192.168.115.136:/etc/hosts
    6. bash
    7. ###node2
    8. hostnamectl set-hostname node2
    9. bash
    10. ######测试通联#######
    11. ###node1
    12. ping node2
    13. ###node2
    14. ping node1

    2、在node1和node2节点安装elasticsearch

    2.1、首先检查Java环境Java-version,如果没有就装一个yum install -y java-1.8.0-openjdk

    2.2、安装elasticsearch

    如下所示这是本次实验用到的安装包

    1. ##安装elasticsearch
    2. rpm -ivh elasticsearch-5.5.0.rpm
    3. ##配置
    4. vim /etc/elasticsearch/elasticsearch.yml
    5. ###进去解开注释
    6. cluster.name:my-elk-cluster #集群名称
    7. node.name:node1 #节点名字
    8. path.data: /var/lib/elasticsearch #数据存放路径
    9. path.logs:/var/log/elasticsearch/ #日志存放路径
    10. bootstrap.memory_lock:false #在启动的时候不锁定内存
    11. network.host:192.168.115.131 #提供服务绑定的IP地址,0.0.0.0代表所有地址
    12. http.port:9200 #侦听端口为9200
    13. discovery.zen.ping.unicast.hosts:["node1""node2"] #群集发现通过单播实现
    14. ###同理安装node2的elasticsearch
    15. ###把这份配置文件传输给node2,修改一下节点名字和IP就好了
    16. scp /etc/elasticsearch/elasticsearch.yml 192.168.115.136:/etc/elasticsearch/elasticsearch.yml
    3、启动elasticsearch服务

    3.1、启动命令systemctl start elasticsearch.service

    node1

    node2

    3.2、浏览器访问查看节点信息

    192.168.115.131:9200

    192.168.115.136
    :9200

    查看集群健康状态:192.168.115.131:9200/cluster/health

                                    192.168.115.136:9200/cluster/health

    Green 健康   yellow  警告    red  集群不可用,严重错误

    4、在node1安装elasticsearch-head插件
    1. ####编译安装
    2. cd elk
    3. tar xf node-v8.2.1.tar.gz
    4. cd node-v8.2.1
    5. ./configure && make && make install
    6. ###等待安装完毕。安装完毕后会生成命令:npm
    7. ###拷贝命令
    8. cd elk
    9. tar xf phantomjs-2.1.1-linux-x86_64.tar.bz2
    10. cd phantomjs-2.1.1-linux-x86_64/bin
    11. cp phantomjs /usr/local/bin
    12. ##安装elasticsearch-head
    13. cd elk
    14. tar xf elasticsearch-head.tar.gz
    15. cd elasticsearch-head
    16. npm install

    1. ###修改elasticsearch配置文件node12都要改
    2. vim /etc/elasticsearch/elasticsearch.yml
    3. # Require explicit names when deleting indices:
    4. #
    5. #action.destructive_requires_name:true
    6. http.cors.enabled: true //开启跨域访问支持,默认为false
    7. http.cors.allow-origin: "*" //跨域访问允许的域名地址

    ​4.1、重启服务: systemctl restart elasticsearch两个节点都检查一下9200端口起来了吗

    1. ###启动elasticsearch-head
    2. cd /root/elk/elasticsearch-head
    3. npm run start &
    4. ##查看监听: netstat -anput | grep :9100

    4.2、访问192.168.115.136:9100

    5、测试输入

    5.1、curl  -XPUT  '192.168.115.131:9200/index-demo/test/1?pretty&pretty' -H  'Content-Type: application/json' -d '{"user":"hy","mesg":"hello"}

    访问192.168.115.131:9100可以看到我们的测试数据 “hy hello”

    6、node1服务器安装logstash
    1. cd elk
    2. rpm -ivh logstash-5.5.1.rpm
    3. systemctl start logstash.service
    4. In -s /usr/share/logstash/bin/logstash /usr/local/bin/

    测试1: 标准输入与输出logstash -e 'input{ stdin{} }output { stdout{} }'

    测试2: 使用rubydebug解码logstash -e 'input { stdin{} } output { stdout{ codec=>rubydebug }}'

    测试3:输出到elasticsearch

    logstash -e 'input { stdin{} } output { elasticsearch{ hosts=>["192.168.115.131:9200"]} }'

    OK,测试完了,我们去192.168.115.131:9100查看一下

    elasticsearch已经在分析了,这就是测得内容而且多了一个索引了

    7、logstash日志收集文件格式(默认存储在/etc/logstash/conf.d)

    7.1、介绍

    1. Logstash配置文件基本由三部分组成:inputoutput以及 filter(根据需要)。标准的配置文件格式如下:
    2. input (...) 输入
    3. filter {...} 过滤
    4. output {...} 输出
    5. 在每个部分中,也可以指定多个访问方式。例如,若要指定两个日志来源文件,则格式如下:
    6. input {
    7. file{path =>"/var/log/messages" type =>"syslog"}
    8. file { path =>"/var/log/apache/access.log" type =>"apache"}
    9. }

    7.2、配置

    通过logstash收集系统信息日志

    1. ##因为要收集日志,root用户可以操作,其他用户是没权限的,所以加个读取的权限,否则是收集不到日志的
    2. chmod o+r /var/log/messages
    3. vim /etc/logstash/conf.d/system.conf
    4. ##system.conf是自定义的因为我搜集的是系统日志,若其他的应用的话可以取对应的名字来作为区分
    5. ##插入
    6. input {
    7. file{ ##类型:文件
    8. path =>"/var/log/messages" ##系统日志文件路径
    9. type => "system" ##类型自定义
    10. start_position => "beginning"
    11. }
    12. }
    13. output {
    14. elasticsearch{
    15. hosts =>["192.168.115.131:9200"] ##给谁处理
    16. index => "system-%{+YYYY.MM.dd}" ##自定义索引
    17. }
    18. }

    重启日志服务: systemctl restart logstash

    浏览器查看 192.168.115.131:9100

    8、node1节点安装kibana

    8.1、安装配置

    1. ####安装kibana
    2. cd elk
    3. rpm -ivh kibana-5.5.1-x86_64.rpm
    4. ##配置kibana
    5. vim /etc/kibana/kibana.yml
    6. server.port:5601 #Kibana打开的端口
    7. server.host:"0.0.0.0" #Kibana侦听的地址
    8. elasticsearch.url: "http://192.168.115.131:9200" #和Elasticsearch 建立连接
    9. kibana.index:".kibana" #在Elasticsearch中添加.kibana索引
    10. ##启动kibana
    11. systemctl start kibana

    8.2、访问kibana

    访问192.168.115.131:9100

    访问192.168.115.131:5601  可以添加索引,可以添加上图中有的索引

    这里我添加一个系统的索引

    五、配置http节点

    1、配置192.168.115.140的http服务

    1. yum -y install httpd
    2. systemctl start httpd
    3. netstat -anput | grep 80

    访问httpd

    2.在此节点上配置我们的logstash来收集我们的http服务器的访问日志

    http访问日志的路径/var/log/httpd/access_log

    1. ##安装logstash
    2. rpm -ivh logstash-5.5.1.rpm

    3、修改配置文件

    1. vim /etc/logstash/conf.d/httpd.conf
    2. ###插入
    3. input {
    4. file{ ##类型:文件
    5. path =>"/var/log/httpd/access_log" ##系统日志文件路径
    6. type => "access" ##类型自定义
    7. start_position => "beginning"
    8. }
    9. }
    10. output {
    11. elasticsearch{
    12. hosts =>["192.168.115.131:9200"] ##给谁处理
    13. index => "httpd-%{+YYYY.MM.dd}" ##自定义索引
    14. }
    15. }

    启动日志收集systemctl start logstash.service

    使用logstash命令导入配置:

    创建软连接In -s /usr/share/logstash/bin/logstash  /usr/local/bin/

    导入logstash -f  /etc/logstash/conf.d/httpd.conf

    4、访问192.168.115.131:9200

    kibana 192.168.115.131:5601

    查看httpd的访问日志情况

    OK,至此实验结束

  • 相关阅读:
    Java#20(包和final)
    Docker部署kafka|Go操作实践
    你的GPU能跑Llama 2等大模型吗?用这个开源项目上手测一测
    springboot配置静态资源访问
    Java、对数列求和
    HTML核心(1)- 第一个网页
    书店销售管理系统----数据库原理及应用综合实验
    软件测试基础
    windows自动切换深色模式(夜晚模式)
    逻辑回归(Logistic Regression)
  • 原文地址:https://blog.csdn.net/2302_78534730/article/details/132570979