• ELK日志分析平台(二)----logstash数据采集


    目录

    一、logstash简介

    二、安装

    三、与elasticsearch连用

     四、将logstash伪装成日志服务器,接受远程日志

    五、logstash的多行过滤

    六、grok切片过滤


    一、logstash简介

    官网:Logstash Introduction | Logstash Reference [7.6] | Elastic

            Logstash是一个开源的服务器端数据处理管道,拥有200多个插件,能够同时从多个来源采集数据, 转换数据,然后将数据发送到您最喜欢的 “存储库” 中。(大多 都是 Elasticsearch);

             Logstash管道有两个必需的元素,输入和输出,以及一个可选 元素过滤器。

             输入:采集各种样式、大小和来源的数据。


            Logstash 支持各种输入选择 ,同时从众多常用来源捕捉事件。 能够以连续的流式传输方式,轻松地从您的日志、指标、Web 应用、 数据存储以及各种 AWS 服务采集数据。

            过滤器:实时解析和转换数据
            数据从源传输到存储库的过程中,Logstash 过滤器能够解析各个事件,识别已命名的字段以构建结构,并将它们转换成通用格式,以便更轻松、更快速地分析和实现商业价值。

        利用 Grok 从非结构化数据中派生出结构
        从 IP 地址破译出地理坐标
        将 PII 数据匿名化,完全排除敏感字段
        简化整体处理,不受数据源、格式或架构的影响

            输出:选择您的存储库,导出数据
            尽管 Elasticsearch 是我们的首选输出方向,能够为我们的搜索 和分析带来无限可能,但它并非唯一选择。Logstash 提供众多输出选择,您可以将数据发送到您要指定的地方,并且能够灵活地解锁众多下游用例。

    二、安装

    官网安装文档:Installing Logstash | Logstash Reference [7.6] | Elastic

    下载地址:Download Logstash Free | Get Started Now | Elastic

    环境:需要Java环境,主机的内存1G以上

    1. ##可以采用离线安装和在线安装
    2. ----------------离线--------------
    3. ##分别安装jdk和logstash包
    4. rpm -ivh jdk-8u171-linux-x64.rpm
    5. rpm -ivh logstash-7.6.1.rmp ----需要和elasticsearch的版本匹配
    6. ----------------在线--------------
    7. ##下载并安装密钥验证包
    8. rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch
    9. ##配置yum源
    10. vim /etc/yum.repos.d/logstash.repo
    11. ---------------------------------------------------
    12. [logstash-7.x]
    13. name=Elastic repository for 7.x packages
    14. baseurl=https://artifacts.elastic.co/packages/7.x/yum
    15. gpgcheck=1
    16. gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch
    17. enabled=1
    18. autorefresh=1
    19. type=rpm-md
    20. ---------------------------------------------------
    21. ##安装
    22. yum install logstash

    1. ##验证
    2. -------------------------命令行-------------------------------
    3. cd logstash-7.6.2 --切换到bin脚本的目录下,执行脚本文件
    4. bin/logstash -e 'input { stdin { } } output { stdout {} }'
    5. -------------------------文件-------------------------------
    6. ##在/etc/logstash/conf.d/目录下以.conf结尾的文件都可以被读到
    7. vim test.conf
    8. --------------------------------------------------------
    9. input {
    10. stdin {} --输入来自命令行标准输入
    11. }
    12. output {
    13. stdout {} --在终端看到结果
    14. file { --输出到/tmp/testfile文件中(输出的文件路径),格式为custom format: {输入内容}
    15. path => "/tmp/testfile"
    16. codec => line { format => "custom format: %{message}"} --message变量可以将输入的值显示出来(在stdin中输入的数据都可以被messag截获);
    17. }
    18. }
    19. --------------------------------------------------------
    20. ##运行
    21. /usr/share/logstash/bin/logstash -f test.conf
    22. hello world --命令行输入
    23. cat /tmp/testfile

    三、与elasticsearch连用

    1. ##命令行输入 elasticsearch输出
    2. vim /etc/logstash/conf.d/es.conf
    3. ------------------------------------------------
    4. input {
    5. stdin {}
    6. }
    7. output {
    8. stdout {} --标准输出一份
    9. elasticsearch { --给elasticsearch输出一份
    10. hosts => ["192.168.19.71:9200"] --目标elasticsearch主机ip与端口
    11. index => "logstash-%{+yyyy.MM.dd}" --定制**索引名称**,索引格式为logstash-年月日
    12. }
    13. }
    14. ------------------------------------------------
    15. ##执行
    16. /usr/share/logstash/bin/logstash -f es.conf
    17. ##网页查看结果
    18. 192.168.19.719100
    19. ->点击数据浏览->指定索引logstash-2021.08.14,可以看到elasticsearch输出一份->查看数据
    1. ##文件输入到elasticsearch
    2. ##把日志文件作为输入:/var/log/messages
    3. ##修改权限使日志文件可被logstash可读
    4. chmod 644 /var/log/messages
    5. ##修改/etc/logstash/conf.d/es.conf文件
    6. ------------------------------------------------
    7. input {
    8. file { --从文件/var/log/messages输入,从头开始输入
    9. path => "/var/log/messages"
    10. start_position => "beginning" --起始位置
    11. }
    12. }
    13. output {
    14. stdout {} --标准输出
    15. elasticsearch { --输出elasticsearch
    16. hosts => ["192.168.19.71:9200"]
    17. index => "logstash-%{+yyyy.MM.dd}"
    18. }
    19. }
    20. ------------------------------------------------
    21. ##执行文件
    22. /ur/share/logstash/bin/logstash -f /etc/logstash/conf.d/es.conf
    23. ##网页端查看
    24. 192.168.19.71:9100-->192.168.19.71:9200(连接到这里)
    1. ##完整删除
    2. ##在删除时不仅要删除索引,也需要删除数据库
    3. logstash会把查询的进度按照分类保存到/usr/share/logstash/data/plugins/inputs/file/sincedb文件中;该文件主要负责记录数据在文件中查询的偏移量,所以在删除索引后,想全部查询文件,需要清除该文件
    4. rm -f .sincedb_

    sincedb文件一共6个字段:

    1. inode编号 ;2. 文件系统的主要设备号 ;3. 文件系统的次要设备号 ;4. 文件中的当前字节偏移量 ;5. 最后一个活动时间戳(浮点数); 6. 与此记录匹配的最后一个已知路径。

     四、将logstash伪装成日志服务器,接受远程日志

    1. ##避免每个节点都安装logstash进行数据采集,可将含有logstash的主机,作为日志服务器,收集所有日志,并交给logstarsh进行处理
    2. vim /etc/logstash/conf.d/es.conf
    3. -------------------------------------------------
    4. input {
    5. #file {
    6. # path => "/var/log/messages"
    7. # start_position => "beginning"
    8. #}
    9. syslog { --伪装syslog,开放端口514
    10. port => 514 --日志收集端口(默认)
    11. }
    12. }
    13. output {
    14. stdout {}
    15. elasticsearch {
    16. hosts => ["192.168.19.71:9200"]
    17. index => "syslog-%{+yyyy.MM.dd}" --索引为syslog-年月日
    18. }
    19. }
    20. -------------------------------------------------
    21. ##执行该文件
    22. /use/share/logstash/bin/logstash -f es.conf
    23. ##查看端口是否开放
    24. netstat -anltupe | grep 514
    25. ##配置服务器上的配置日志,允许远程备份
    26. vim /etc/rsyslog.conf
    27. -------------------------------------------------
    28. $ModLoad imudp --打开端口
    29. $UDPServerRun 514
    30. *.* @@192.168.19.71514 --日志发送到71主机上
    31. -------------------------------------------------
    32. ##在logstash主机上查看
    33. 192.168.19.71:9200--网页查看

    五、logstash的多行过滤

    1. ##命令行多行输入
    2. vim /etc/logstash/conf.d/multest.conf
    3. ------------------------------------------------------
    4. input {
    5. stdin {
    6. codec => multiline { --多行输入
    7. pattern => "EOF" --结束标志词为EOF
    8. negate => "true"
    9. what => "previous"
    10. }
    11. }
    12. }
    13. output {
    14. stdout {}
    15. file {
    16. path => "/tmp/multest" --输出到文件/tmp/multest
    17. codec => line { format => "custom format: %{message}"}
    18. --格式为custom format:{数据}
    19. }
    20. }
    21. ------------------------------------------------------
    22. ##执行文件
    23. /usr/share/logstash/bin/logstash -f multest.conf
    24. ##命令行输入
    25. >>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
    26. 1
    27. 2
    28. 3
    29. 4
    30. EOF
    31. >>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
    1. ##文件多行输入
    2. ##使用日志文件
    3. vim multest.conf
    4. -------------------------------------------------------------------
    5. input {
    6. file {
    7. path => "/var/log/my-es.log" --文件/var/log/my-es.log作为输入
    8. start_position => "beginning" --从头开始输入
    9. codec => multiline {
    10. pattern => "^\["
    11. negate => "true"
    12. what => "previous"
    13. }
    14. }
    15. }
    16. output {
    17. stdout {}
    18. elasticsearch { --输出到es
    19. hosts => ["192.168.19.71:9200"]
    20. index => "eslog-%{+yyyy.MM.dd}"
    21. }
    22. }
    23. -------------------------------------------------------------------
    24. ##执行
    25. /usr/share/logstash/bin/logstash -f multest.conf
    26. ##查看
    27. web->192.168.19.719100->header

    对输入文件进行简单分析:正确的日志都是以时间开头的,并且被中括号[ ]括起来的一行,而错误日志有很多行,比如下图的at org开头的这些,他们合起来应该是一条错误日志。

    六、grok切片过滤

         查看日志时,一般都有一定的规律。比如查看apache的日志,先是访问的ip,时间等等。在查看时我们需要查看其中一组数据,比如只想要ip这一列。此时就可以使用logstash的切片功能,根据日志的特征自定义grok的书写,得到想要的切片。

    1. ##对命令行输入的过滤
    2. vim /etc/logstash/conf.d/grok.conf
    3. ----------------------------------------------------
    4. input {
    5. stdin {}
    6. }
    7. filter {
    8. grok { --把输入切片成五块,分别对应
    9. match => { "message" => "%{IP:client} %{WORD:method} %{URIPATHPARAM:request} %{NUMBER:bytes} %{NUMBER:duration}" }
    10. }
    11. }
    12. output {
    13. stdout {}
    14. }
    15. ----------------------------------------------------
    16. ##执行
    17. /etc/logstash/bin/logstash -f /etc/logstash/conf.d/grok.conf
    18. ##终端可以直接查看
    1. ##文件输入
    2. ##文件输入时需要注意权限的改变,使用户可读:644
    3. ##修改grok.conf文件
    4. ---------------------------------------------------
    5. input {
    6. file {
    7. path => "/var/log/httpd/access_log" --/var/log/httpd/access_log文件作为输入
    8. start_position => "beginning" --从头开始
    9. }
    10. }
    11. filter {
    12. grok {
    13. match => { "message" => "%{HTTPD_COMBINEDLOG}" } --按照默认的HTTPD_COMBINEDLOG方式切片
    14. }
    15. }
    16. output {
    17. stdout {}
    18. elasticsearch {
    19. hosts => ["192.168.19.71:9200"]
    20. index => "apachelog-%{+yyyy.MM.dd}" --索引名字叫apachelog
    21. }
    22. }
    23. ---------------------------------------------------
    24. ##执行
    25. /etc/logstash/bin/logstash -f /etc/logstash/conf.d/grok.conf
    26. ##查看
    27. 终端和web端均可查看
    28. ##压力测试:
    29. ab -n 100 -cl http://192.169.19.71/index.html
    30. ##再次查看数据
    31. 终端和web端均可查看

    【编写切片格式】官方在:/usr/share/logstash/vendor/bundle/jruby/2.5.0/gems/logstash-patterns-core-4.1.2/patterns提供了较多的模板,可以进行参考;

    上述的文件输入,我们用的是Apche的文件输入,所以查看httpd的规定,如何写日志已经提前用变量的方法定义了按照这个规定切片就好了

  • 相关阅读:
    【matplotlib】matplotlib的颜色表
    从零开始操作系统-09:键盘实现
    文案配音软件哪个好?(适合新手使用)
    计算机毕业设计Java百姓点评网的设计与实现(源码+系统+mysql数据库+lw文档)
    《MetaGPT智能体开发入门》学习笔记 第五章 多智能体
    【python练习】在棋盘上收集奖品,跟着书本理思路
    自定义注解
    3DS Max中绘制圆锥箭头
    QTreeWidget虚线设置
    k8s--基础--05--环境搭建--准备工作
  • 原文地址:https://blog.csdn.net/qq_41056224/article/details/126836807