码农知识堂 - 1000bd
  •   Python
  •   PHP
  •   JS/TS
  •   JAVA
  •   C/C++
  •   C#
  •   GO
  •   Kotlin
  •   Swift
  • 搭建ELK+Filebead+zookeeper+kafka实验


    文章目录

    • 一、ELK+Filebeat+kafka+zookeeper架构
    • 二、搭建ELFK+zookeeper+kafka
      • 1、安装kafka+zookeeper集群(20.0.0.55、20.0.0.56、20.0.0.57)
        • 2、安装zookeeper服务
        • 3、安装kafka服务
          • 3.1 kafka命令行操作
          • 3.2 创建topic进行测试(任意主机上均可操作)
      • 3、配置数据采集层filebead(20.0.0.58)
      • 4、部署ES服务(20.0.0.60、20.0.0.61)
        • 4.1 安装ES服务
        • 4.2 安装node插件
        • 4.3 安装phantomjs插件
        • 4.4 安装ES-head
        • 4.5 修改ES配置文件
        • 4.6 启动ES服务
        • 4.7 启动ES-head服务
      • 5、部署logstash(20.0.0.59)
      • 6、使用ES-head接口访问
      • 7、安装kibana指向可视化

    一、ELK+Filebeat+kafka+zookeeper架构

    在这里插入图片描述

    架构图分别演示

    第一层:数据采集层

    • 数据采集层位于最左边的业务服务集群上,在每个业务服务器上面安装了filebead做日志收集,然后把采集到的原始日志发送到kafka+zookeeper集群上。

    第二层:消息队列层

    • 原始日志发送到kafka+zookeeper集群上后,会进行集中存储,此时filebead是消息的生产者,存储的消息可以随时被消费。

    第三层:数据分析层

    • logstash作为消费者,回去kafka+zookeeper集群节点时实拉去原始日志,然后将获取到的原始日志根据规则进行分析、格式化处理,最后将格式化的日志转发至Elasticsearch集群中。

    第四层:数据持久化存储

    • Elasticsearch集群接收到logstash发送过来的数据后,执行写入磁盘,建立索引等操作,最后将结构化数据存储到Elasticsearch集群上。

    第五层:数据查询,展示层

    • kibana是一个可视化的数据展示平台,当有数据检索请求时,它从Elasticsearch集群上读取数据,然后进行可视化出图和多维度分析.

    二、搭建ELFK+zookeeper+kafka

    主机名ip地址所属集群安装软件包
    filebead20.0.0.55数据层级层filebead+apache
    kafka120.0.0.56kafka+zookeeper集群kafka+zookeeper
    kafka220.0.0.57kafka+zookeeper集群kafka+zookeeper
    kafka320.0.0.58kafka+zookeeper集群kafka+zookeeper
    logstash20.0.0.59数据处理层logstash
    node120.0.0.60ES集群Eslasticsearch+node+phantomis+head
    node220.0.0.61ES集群+kibana展示Elasticsearch+node+phantomis+head+kibana

    1、安装kafka+zookeeper集群(20.0.0.55、20.0.0.56、20.0.0.57)

    2、安装zookeeper服务

    关闭防火墙,核心防护,修改主机名

    在这里插入图片描述

    安装环境,解压软件
    在这里插入图片描述

    修改配置文件
    在这里插入图片描述

    创建数据目录、日志目录
    在这里插入图片描述

    设置三台机器的myid

    在这里插入图片描述

    设置三台机器的执行脚本

    在这里插入图片描述

    将三台机器的启动脚本放入到系统管理中
    在这里插入图片描述

    分别启动三台启动的zookeeper
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    3、安装kafka服务

    将三台机器都上传安装包,并解压到指定目录

    在这里插入图片描述

    备份配置文件
    在这里插入图片描述

    修改配置文件

    • 20.0.0.55主机的配置文件

    在这里插入图片描述

    • 20.0.0.56的配置文件
      在这里插入图片描述

    • 20.0.0.57配置文件
      在这里插入图片描述

    将kafka添加到环境变量中

    在这里插入图片描述

    配置kafka 的启动脚本

    在这里插入图片描述

    设置开机自动
    在这里插入图片描述

    分别启动kafka

    在这里插入图片描述

    3.1 kafka命令行操作

    创建topic

    kafka-topics.sh --create --zookeeper 20.0.0.55:2181,20.0.0.56:2181,20.0.0.57:2181 --replication-factor 2 --partitions 3 --topic test
    
    #--zookeeper:定义zookeeper集群服务器地址,如果有多个ip以逗号分隔。
    #--replication-factor:定义分区副本,1代表但副本,建议为2
    #--partitions: 定义分区数
    #--topic :定义topic名称
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    查看当前服务器中的所有topic

    kafka-topics.sh --list --zookeeper 20.0.0.55:2181,20.0.0.56:2181,20.0.0.57:2181
    
    • 1

    查看某个topic的详情

    kafka-topics.sh --describe --zookeeper 20.0.0.55:2181,20.0.0.56:2181,20.0.0.57:2181
    
    • 1

    发布消息

    kafka-console-producer.sh --broker-list 20.0.0.55:9092,20.0.0.56:9092,20.0.0.57:9092 --topic test
    
    • 1

    消费消息

    kafka-console-consumer.sh --bootstrap-server 20.0.0.55:9092,20.0.0.56:9092,20.0.0.57:9092 --topic test --from-beginning
    
    #--from-beginning:会把主题中以往所有的数据都读取出来
    
    • 1
    • 2
    • 3

    修改分区数

    kafka-topics.sh --zookeeper 20.0.0.55:2181,20.0.0.56:2181,20.0.0.57:2181 --alter --topic test --partitions 6
    
    • 1

    删除topic

    kafka-topics.sh --delete --zookeeper 20.0.0.55:2181,20.0.0.56:2181,20.0.0.57:2181 --topic test
    
    • 1
    3.2 创建topic进行测试(任意主机上均可操作)

    创建topic
    在这里插入图片描述

    发布消息、消费消息

    在这里插入图片描述

    3、配置数据采集层filebead(20.0.0.58)

    关闭防火墙、修改主机名

    安装httpd服务,并启动

    在这里插入图片描述

    安装filebead,并剪切到指定目录
    在这里插入图片描述

    修改配置文件
    在这里插入图片描述

    启动filebeat服务
    在这里插入图片描述

    4、部署ES服务(20.0.0.60、20.0.0.61)

    安装JDK
    在这里插入图片描述

    4.1 安装ES服务

    配置本地解析,上传安装包安装并启动

    在这里插入图片描述

    修改配置文件
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    查看配置文件,创建数据目录
    在这里插入图片描述

    4.2 安装node插件

    安装运行环境
    在这里插入图片描述

    编译
    在这里插入图片描述

    安装
    在这里插入图片描述

    4.3 安装phantomjs插件

    上传压缩包解压
    在这里插入图片描述

    将执行文件加入到环境变量
    在这里插入图片描述

    4.4 安装ES-head

    上传压缩包,解压
    在这里插入图片描述

    安装
    在这里插入图片描述

    4.5 修改ES配置文件

    在这里插入图片描述

    4.6 启动ES服务

    在这里插入图片描述

    4.7 启动ES-head服务

    在这里插入图片描述

    5、部署logstash(20.0.0.59)

    安装java环境
    在这里插入图片描述

    安装logstash
    在这里插入图片描述

    创建软链接
    在这里插入图片描述

    创建执行对接文件
    在这里插入图片描述

    启动服务
    在这里插入图片描述

    6、使用ES-head接口访问

    在这里插入图片描述

    7、安装kibana指向可视化

    这边不演示了,参考前面的博客

  • 相关阅读:
    【LeetCode-中等】128. 最长连续序列(详解)
    Git 学习(三)---- GitHub 远程库操作
    pytorch学习神经网络的搭建
    天锐绿盾透明加密、半透明加密、智能加密这三种不同加密模式的区别和适用场景——@德人合科技-公司内部核心文件数据、资料防止外泄系统
    Postman如何做接口测试,那些不得不知道的技巧
    线性代数+分治:446E
    学长教你学C-day9-C语言循环结构与选择结构
    第71步 时间序列建模实战:ARIMA建模(Python)
    2022年电工杯数学建模B题5G网络环境下应急物资配送问题求解全过程论文及程序
    Java 快速入门
  • 原文地址:https://blog.csdn.net/m0_57515995/article/details/126681337
  • 最新文章
  • 攻防演习之三天拿下官网站群
    数据安全治理学习——前期安全规划和安全管理体系建设
    企业安全 | 企业内一次钓鱼演练准备过程
    内网渗透测试 | Kerberos协议及其部分攻击手法
    0day的产生 | 不懂代码的"代码审计"
    安装scrcpy-client模块av模块异常,环境问题解决方案
    leetcode hot100【LeetCode 279. 完全平方数】java实现
    OpenWrt下安装Mosquitto
    AnatoMask论文汇总
    【AI日记】24.11.01 LangChain、openai api和github copilot
  • 热门文章
  • 十款代码表白小特效 一个比一个浪漫 赶紧收藏起来吧!!!
    奉劝各位学弟学妹们,该打造你的技术影响力了!
    五年了,我在 CSDN 的两个一百万。
    Java俄罗斯方块,老程序员花了一个周末,连接中学年代!
    面试官都震惊,你这网络基础可以啊!
    你真的会用百度吗?我不信 — 那些不为人知的搜索引擎语法
    心情不好的时候,用 Python 画棵樱花树送给自己吧
    通宵一晚做出来的一款类似CS的第一人称射击游戏Demo!原来做游戏也不是很难,连憨憨学妹都学会了!
    13 万字 C 语言从入门到精通保姆级教程2021 年版
    10行代码集2000张美女图,Python爬虫120例,再上征途
Copyright © 2022 侵权请联系2656653265@qq.com    京ICP备2022015340号-1
正则表达式工具 cron表达式工具 密码生成工具

京公网安备 11010502049817号