• Linux Docker 安装 Elasticsearch Logstash Kibana


    Elasticsearch是一个基于Lucene的搜索服务器。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口风格的搜索和数据分析引擎。

    Kibana 是一款开源的数据分析和可视化平台,它是 Elastic Stack 成员之一,设计用于和 Elasticsearch 协作。您可以使用 Kibana 对 Elasticsearch 索引中的数据进行搜索、查看、交互操作。您可以很方便的利用图表、表格及地图对数据进行多元化的分析和呈现。

    Logstash是 Elastic Stack 的中央数据流引擎(数据收集引擎),用于收集、丰富和统一所有数据,而不管格式或模式。

    当Logstash与Elasticsearch,Kibana,及 Beats 共同使用的时候便会拥有特别强大的实时处理能力(ELK)。

    1、Elasticsearch 搜索,下载,查询

    1. # 搜索镜像
    2. docker search elasticsearch
    3. # 下载镜像
    4. docker pull elasticsearch
    5. docker pull elasticsearch:7.15.2
    6. # 查看镜像
    7. docker images

    2、Logstash 搜索,下载,查询

    1. # 搜索镜像
    2. docker search logstash
    3. # 下载镜像
    4. docker pull logstash:7.15.2
    5. # 查看镜像
    6. docker images

    3、Kibana 搜索,下载,查询

    1. # 搜索镜像
    2. docker search kibana
    3. # 下载镜像
    4. docker pull kibana:latest
    5. docker pull kibana:7.15.2
    6. # 查看镜像
    7. docker images

    4、创建挂载目录 Elasticsearch,集群目录

    1. mkdir -p /home/20221125/myelk/es/{config,logs,data,plugins}
    2. chown -R 1000:1000 /data/myelk/es
    3. touch /home/20221125/myelk/es/config/elasticsearch.yml
    4. # 创建集群文件夹目录
    5. # node_1
    6. mkdir -p /home/20221125/es_cluster/node_1/{config,logs,data}
    7. mkdir -p /home/20221125/es_cluster/node_1/plugins/ik
    8. # node_2
    9. mkdir -p /home/20221125/es_cluster/node_2/{config,logs,data}
    10. mkdir -p /home/20221125/es_cluster/node_2/plugins/ik
    11. # node_3
    12. mkdir -p /home/20221125/es_cluster/node_3/{config,logs,data}
    13. mkdir -p /home/20221125/es_cluster/node_3/plugins/ik

    5、创建挂载目录 Logstash

    1. mkdir -p /home/20221125/myelk/logstash/{config,logs,pipeline}
    2. mkdir -p /home/20221125/myelk/logstash/config/conf.d
    3. chmod 777 -R /home/20221125/myelk/logstash
    4. touch /home/20221125/myelk/logstash/config/logstash.yml
    5. vim /home/20221125/myelk/logstash/config/logstash.yml
    6. ##增加配置
    7.     http.host: "0.0.0.0"  # 注意 0.0.0.0 不是指定ip
    8.     xpack.monitoring.enabled: true
    9.     xpack.monitoring.elasticsearch.hosts: [ "http://192.168.31.196:9200" ]
    10.     xpack.monitoring.elasticsearch.username: "elastic"  #es xpack账号
    11.     xpack.monitoring.elasticsearch.password: "xxxx"     #es xpack账号
    12.     path.config: /usr/share/logstash/config/conf.d/*.conf
    13.     path.logs: /usr/share/logstash/logs

    6、创建挂载目录 Kibana

    1. mkdir -p /home/20221125/myelk/kibana/{config,data}
    2. touch /home/20221125/myelk/kibana/config/kibana.yml
    3. vim /home/20221125/myelk/kibana/config/kibana.yml
    4. ##增加配置
    5.     server.name: kibana
    6.     server.host: "0.0.0.0"
    7.     server.port: 5601
    8.     # 设置elasticsearch集群地址
    9.     elasticsearch.hosts: ["http://192.168.1.1:9200","http://192.168.1.1:9201"]  #注意这里的ip不能是localhost,是本地的ip地址
    10.     xpack.monitoring.ui.container.elasticsearch.enabled: true
    11.     #设置kibana中文显示
    12.     i18n.locale: zh-CN
    13.     elasticsearch.url: "http://10.132.200.4:9200" #这里是7.0版本以下的配置,默认不支持集群,
    14.     7.0版本的es的地址直接是“http://elasticsearch-cluster”直接这样配置访问

    7、运行容器 Elasticsearch

    1. # 容器 elasticsearch 样例1
    2. docker run -it -p 9200:9200 -p 9300:9300 \
    3.  --name first_es \
    4.  -e ES_JAVA_OPTS="-Xms1g -Xmx1g" \
    5.  -e "discovery.type=single-node" \
    6.  --restart=always \
    7.  -v /data/elk/es/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \
    8.  -v /data/elk/es/data:/usr/share/elasticsearch/data \
    9.  -v /data/elk/es/logs:/usr/share/elasticsearch/logs \
    10.  -v /data/elk/es/plugins:/usr/share/elasticsearch/plugins \
    11.  -d elasticsearch:7.15.2
    12. # 容器 elasticsearch 样例2
    13. docker run --name first_elasticsearch -p 9200:9200  -p 9300:9300 \
    14.  -e "discovery.type=single-node" \
    15.  -e ES_JAVA_OPTS="-Xms84m -Xmx512m" \
    16.  -v /opt/es_docker/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \
    17.  -v /opt/es_docker/data:/usr/share/elasticsearch/data \
    18.  -v /opt/es_docker/plugins:/usr/share/elasticsearch/plugins \
    19.  -d elasticsearch:7.15.2
    20. # 容器 elasticsearch 样例3 集群
    21. docker run --name es_node_1 -p 9201:9200  -p 9301:9300 \
    22. -privileged=true \
    23.  -v /opt/es_docker/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \
    24.  -v /opt/es_docker/data:/usr/share/elasticsearch/data \
    25.  -v /opt/es_docker/plugins:/usr/share/elasticsearch/plugins \
    26. -e "cluster.name=my-cluster" \
    27. -e "node.name=node-1" \
    28. -e "node.master=true" \
    29. -e "node.data=true" \
    30. -e "network.host=0.0.0.0" \
    31. -e "transport.tcp.port=9300" \
    32. -e "http.port=9200" \
    33. -e "cluster.initial_master_nodes=node-1" \
    34. -e "discovery.seed_hosts: ["192.168.1.100:9301","192.168.1.100:9302","192.168.1.100:9303"]" \
    35. -e "gateway.auto_import_dangling_indices=true" \
    36. -e "http.cors.enabled=true" \
    37. -e "http.cors.allow-origin:=*" \
    38. -e "ES_JAVA_OPTS=-Xms512m -Xmx512m" \
    39.  -e "discovery.type=single-node" \
    40. -e "TAKE_FILE_OWNERSHIP=true" \
    41.  -d elasticsearch:7.15.2
    42. # 参数说明:
    43. -privileged=true 设置特权级运行的容器,container内的root拥有真正的root权限
    44. -v 宿主机路径:容器路径
    45.  -v es-data:/usr/share/elasticsearch/data:挂载逻辑卷,绑定es的数据目录
    46.  -v es-logs:/usr/share/elasticsearch/logs:挂载逻辑卷,绑定es的日志目录
    47.  -v es-plugins:/usr/share/elasticsearch/plugins:挂载逻辑卷,绑定es的插件目录
    48.  --privileged:授予逻辑卷访问权
    49.  --network es-net :加入一个名为es-net的网络中
    50.  -p 9200:9200:端口映射配置
    51.  -e "cluster.name=es-docker-cluster":设置集群名称
    52. -e "cluster.name=my-cluster":设置集群名称
    53.  -e "http.host=0.0.0.0":监听的地址,可以外网访问
    54.  -e "ES_JAVA_OPTS=-Xms512m -Xmx512m":内存大小
    55.  -e "discovery.type=single-node":非集群模式,discovery.type=single-node(单机运行)
    56. -e "node.name=node-1":节点名称
    57. -e "node.master=true":是否可以成为master节点
    58. -e "node.data=true":是否存储数据
    59. -e "network.host=0.0.0.0":绑定主机ip地址,允许外网访问
    60. -e "transport.tcp.port=9300":集群节点之间通讯交互的tcp端口
    61. -e "http.port=9200":设置http端口
    62. -e "cluster.initial_master_nodes=node-1":master节点默认为node-1
    63. -e "discovery.seed_hosts":设置当前节点与哪些ES节点建立连接
    64. -e "gateway.auto_import_dangling_indices=true":是否自动引入dangling索引,默认false
    65. -e "http.cors.enabled=true":开启跨域访问
    66. -e "http.cors.allow-origin:=*":跨域访允许的域名地址
    67. -e "ES_JAVA_OPTS=-Xms512m -Xmx512m":默认jvm2G,设置jvm最小内存
    68. -e "TAKE_FILE_OWNERSHIP=true":解决挂载目录权限问题
    69. # 查看容器运行日志
    70. docker logs first_es
    71. docker logs first_elasticsearch
    72. docker logs es_node_1
    73. # 查看容器 hostname、ip地址、环境变量
    74. docker exec first_elasticsearch hostname
    75. docker exec first_elasticsearch ip addr
    76. docker exec first_elasticsearch env
    77. # 查看容器IP地址
    78. docker inspect first_es
    79. # "IPAddress": "172.17.0.2"
    80. # 查看容器IP地址
    81. docker inspect first_es | grep 'IPAddress'
    82. # 进入容器
    83. docker exec -it first_es /bin/bash
    84. docker exec -it first_es bash
    85. ls -l
    86. # 停止和删除容器
    87. docker stop first_elasticsearch && docker rm first_elasticsearch

    8、运行容器 Logstash
    *
    *
    *
    9、运行容器 Kibana

    1. docker run --name first_kibana \
    2. -p 5601:5601 \
    3.  --log-driver json-file \
    4.  --log-opt max-size=100m \
    5.  --log-opt max-file=2 \
    6.  -v /home/20221125/myelk/kibana/config/kibana.yml:/usr/share/kibana/config/kibana.yml \
    7. --restart=always \
    8. -d kibana:7.15.2
    9. # 查看容器运行日志
    10. docker logs first_kibana
    11. # 查看容器 hostname、ip地址、环境变量
    12. docker exec first_elasticsearch hostname
    13. docker exec first_elasticsearch ip addr
    14. docker exec first_elasticsearch env
    15. # 查看容器IP地址
    16. docker inspect first_kibana
    17. # "IPAddress": "172.17.0.2"
    18. # 查看容器IP地址
    19. docker inspect first_kibana | grep 'IPAddress'
    20. # 进入容器
    21. docker exec -it first_kibana /bin/bash
    22. docker exec -it first_kibana bash
    23. ls -l
    24. # 停止和删除容器
    25. docker stop first_kibana && docker rm first_kibana

    *、数据包转发

    1. # 跳转目录
    2. cd /usr/lib/sysctl.d
    3. # 查看文件
    4. cat /usr/lib/sysctl.d/50-default.conf
    5. # 编辑文件
    6. vim /usr/lib/sysctl.d/50-default.conf
    7. # 末尾添加内容
    8. net.ipv4.ip_forward = 1
    9. # 重启network
    10. systemctl restart network

    *、开放端口(需要外网访问)

    1. # 查看防火墙状态
    2. systemctl status firewalld
    3. # 开放指定端口
    4. firewall-cmd --add-port=9201/tcp --add-port=9202/tcp --add-port=9203/tcp --permanent
    5. firewall-cmd --add-port=5601/tcp --permanent
    6. # 重新加载
    7. firewall-cmd --reload
    8. # 查看开放端口
    9. firewall-cmd --list-ports

    *、验证
    *
    *
    *
    docker-compose

    1. # Step 1: 创建 docker-compose.yml 文件
    2. cd /home/20221125/myelk
    3. vim docker-compose.yml
    4. # Step 2: 编辑内容如下
    5. version: '3'
    6. services:
    7. elasticsearch:
    8. image: elasticsearch:7.15.2
    9. container_name: elasticsearch
    10. environment:
    11. - "cluster.name=elasticsearch"
    12. - "discovery.type=single-node"
    13. - "ES_JAVA_OPTS=-Xms512m -Xmx512m"
    14. volumes:
    15. - /data/elk/es/data:/usr/share/elasticsearch/data
    16. - /data/elk/es/logs:/usr/share/elasticsearch/logs
    17. - /data/elk/es/plugins:/usr/share/elasticsearch/plugins
    18. ports:
    19. - 9200:9200
    20. kibana:
    21. image: kibana:7.15.2
    22. container_name: kibana
    23. links:
    24. - elasticsearch:es
    25. depends_on:
    26. - elasticsearch
    27. environment:
    28. - "elasticsearch.hosts=http://es:9200"
    29. ports:
    30. - 5601:5601
    31. logstash:
    32. image: logstash:7.15.2
    33. container_name: logstash
    34. volumes:
    35. - /data/elk/logstash/logstash-snowy.conf:/usr/share/logstash/pipeline/logstash.conf
    36. depends_on:
    37. - elasticsearch
    38. links:
    39. - elasticsearch:es
    40. ports:
    41. - 4560:4560
    42. # Step 3: 执行命令
    43. docker-compose up -d

    *
    *
    *

  • 相关阅读:
    基于STM32设计的智慧浇花系统(华为云IOT)
    网课搜题公众号搭建 查题接口教程
    C语言实现将一个正整数分解质因数。例如:输入90,打印出90=2*3*3*5
    Java开发五年跳槽涨薪从12K到35K,靠“狂刷”九遍面试题
    Spring实战 | Spring AOP核心秘笈之葵花宝典
    前端设计模式应应用场景
    机器学习实验------密度聚类方法之DB-Scan
    react父页面监听子页面关闭,进而刷新列表
    网络安全(黑客)自学
    html笔记
  • 原文地址:https://blog.csdn.net/KingCruel/article/details/128105423