日志主要包括系统日志、应用程序日志和安全日志。系统运维和开发人员可以通过日志了解服务器软硬件信息、检查配置过程中的错误及错误发生的原因。经常分析日志可以了解服务器的负荷,性能安全性,从而及时采取措施纠正错误。
往往单台机器的日志我们使用grep、awk等工具就能基本实现简单分析,但是当日志被分散存储在不同的设备上。如果你管理数十上百台服务器,你还在使用依次登录每台机器的传统方法查阅日志。这样是不是感觉很繁琐和效率低下。当务之急我们使用集中化的日志管理,例如:开源的rsyslog,将所有服务器上的日志收集汇总。集中化管理日志后,日志的统计和检索又成为一件比较麻烦的事情,一般我们使用grep、awk和wc等Linux命令能实现检索和统计,但是对于要求更高的查询、排序和统计等要求和庞大的机器数量依然使用这样的方法难免有点力不从心。
一般大型系统是一个分布式部署的架构,不同的服务模块部署在不同的服务器上,问题出现时,大部分情况需要根据问题暴露的关键信息,定位到具体的服务器和服务模块,构建一套集中式日志系统,可以提高定位问题的效率。
ELK平台是一套完整的日志集中处理解决方案,将 ElasticSearch、Logstash 和 Kiabana 三个开源工具配合使用, 完成更强大的用户对日志的查询、排序、统计需求。
可以添加的其它组件:
Logstash 作为日志搜集器,从数据源采集数据,并对数据进行过滤,格式化处理,然后交由 Elasticsearch 存储,Kibana 对日志进行可视化处理。
node1节点(2C/4G):node1/192.168.80.10 Elasticsearch
node2节点(2C/4G):node2/192.168.80.20 Elasticsearch
Apache节点:apache/192.168.80.30 Logstash Kibana Apache
- [root@localhost ~]# systemctl stop firewalld
- [root@localhost ~]# setenforce 0
- setenforce: SELinux is disabled
设置Java环境
- [root@localhost ~]# java -version
- openjdk version "1.8.0_332"
- OpenJDK Runtime Environment (build 1.8.0_332-b09)
- OpenJDK 64-Bit Server VM (build 25.332-b09, mixed mode)
上传elasticsearch-6.7.2.rpm到/opt目录下
- [root@localhost ~]# cd /opt/
- [root@localhost opt]# ls
- elasticsearch-6.7.2.rpm mysql-5.7.44 mysql-boost-5.7.44.tar.gz rh
- [root@localhost opt]# rpm -ivh elasticsearch-6.7.2.rpm
- 警告:elasticsearch-6.7.2.rpm: 头V4 RSA/SHA512 Signature, 密钥 ID d88e42b4: NOKEY
- 准备中... ################################# [100%]
- Creating elasticsearch group... OK
- Creating elasticsearch user... OK
- 正在升级/安装...
- 1:elasticsearch-0:6.7.2-1 ################################# [100%]
- ### NOT starting on installation, please execute the following statements to configure elasticsearch service to start automatically using systemd
- sudo systemctl daemon-reload
- sudo systemctl enable elasticsearch.service
- ### You can start elasticsearch service by executing
- sudo systemctl start elasticsearch.service
- Created elasticsearch keystore in /etc/elasticsearch
- [root@localhost ~]# cp /etc/elasticsearch/elasticsearch.yml /etc/elasticsearch/elasticsearch.yml.bak
- [root@localhost ~]# vim /etc/elasticsearch/elasticsearch.yml
- [root@localhost ~]# grep -v "^#" /etc/elasticsearch/elasticsearch.yml
- cluster.name: my-elk-cluster
- node.name: node1
- node.master: true
- node.data: true
- path.data: /var/lib/elasticsearch
- path.logs: /var/log/elasticsearch
- bootstrap.memory_lock: true
- network.host: 0.0.0.0
- http.port: 9200
- transport.tcp.port: 9300
- discovery.zen.ping.unicast.hosts: ["192.168.80.10:9300", "192.168.80.20:9300"]
- 修改内容如下:
- --17--取消注释,指定集群名字
- cluster.name: my-elk-cluster
- --23--取消注释,指定节点名字:Node1节点为node1,Node2节点为node2
- node.name: node1
- node.master: true #是否master节点,false为否
- node.data: true #是否数据节点,false为否
- --33--取消注释,指定数据存放路径
- path.data: /var/lib/elasticsearch
- --37--取消注释,指定日志存放路径
- path.logs: /var/log/elasticsearch
- --43--取消注释,将系统内存锁定到es进程中,以保证es能够维护一定的内存空间,避免es使用swap交换分区
- bootstrap.memory_lock: true
- --55--取消注释,设置监听地址,0.0.0.0代表所有地址
- network.host: 0.0.0.0
- --59--取消注释,ES 服务的默认监听端口为9200
- http.port: 9200 #指定es集群提供外部访问的接口
- transport.tcp.port: 9300 #指定es集群内部通信接口
- --68--取消注释,集群发现通过单播实现,指定要发现的节点
- discovery.zen.ping.unicast.hosts: ["192.168.80.10:9300", "192.168.80.11:9300"]
优化最大内存大小和最大文件描述符的数量
- [root@localhost ~]# vim /etc/security/limits.conf
- 添加以下内容:
- ......
- * soft nofile 65536
- * hard nofile 65536
- * soft nproc 32000
- * hard nproc 32000
- * soft memlock unlimited
- * hard memlock unlimited
- [root@localhost ~]# vim /etc/systemd/system.conf
- 添加以下内容:
- DefaultLimitNOFILE=65536 #51行修改
- DefaultLimitNPROC=32000 #53行修改
- DefaultLimitMEMLOCK=infinity #54行修改
- [root@localhost ~]# vim /etc/sysctl.conf
- #一个进程可以拥有的最大内存映射区域数,参考数据(分配 2g/262144,4g/4194304,8g/8388608)
- 添加以下内容:
- vm.max_map_count=262144
- [root@localhost ~]# sysctl -p
- vm.max_map_count = 262144
-
- [root@localhost ~]# reboot #重启
- [root@localhost ~]# systemctl start elasticsearch.service
- [root@localhost ~]# systemctl enable elasticsearch.service
- Created symlink from /etc/systemd/system/multi-user.target.wants/elasticsearch.service to /usr/lib/systemd/system/elasticsearch.service.
- [root@localhost ~]# netstat -antp | grep 9200
-
- #JVM优化
- [root@localhost ~]# cd /etc/elasticsearch/
- [root@localhost elasticsearch]# vim jvm.options
- ......
- 22行 -Xms2g #设置为物理内存的一般
- 23行 -Xmx2g #设置为物理内存的一般
- [root@localhost elasticsearch]# systemctl restart elasticsearch.service
- [root@localhost elasticsearch]# netstat -antp | grep 9200
- tcp6 0 0 :::9200 :::* LISTEN 2491/java
浏览器访问 http://192.168.80.10:9200 、 http://192.168.80.20:9200 查看节点 Node1、Node2 的信息


浏览器访问 http://192.168.80.10:9200/_cluster/health?pretty 、 http://192.168.80.11:9200/_cluster/health?pretty查看群集的健康情况,可以看到 status 值为 green(绿色), 表示节点健康运行


浏览器访问 http://192.168.80.10:9200/_cluster/state?pretty 检查群集状态信息

#使用上述方式查看群集的状态对用户并不友好,可以通过安装 Elasticsearch-head 插件,可以更方便地管理群集
上传软件包 node-v8.2.1.tar.gz 到/opt
- [root@localhost elasticsearch]# cd /opt
- [root@localhost opt]# mount /dev/dr0 /mnt
- [root@localhost opt]# yum install gcc gcc-c++ make -y
- [root@localhost opt]# tar xf node-v8.2.1.tar.gz
- [root@localhost opt]# cd node-v8.2.1/
- [root@localhost node-v8.2.1]# ./configure
上传软件包 phantomjs-2.1.1-linux-x86_64.tar.bz2 到/opt
- [root@localhost node-v8.2.1]# cd /opt/
- [root@localhost opt]# tar xf phantomjs-2.1.1-linux-x86_64.tar.bz2
- [root@localhost opt]# cd /opt/phantomjs-2.1.1-linux-x86_64/bin
- [root@localhost bin]# ls
- phantomjs
- [root@localhost bin]# cp phantomjs /usr/local/bin
上传软件包 elasticsearch-head-master.zip 到/opt
- [root@localhost opt]# unzip elasticsearch-head-master.zip
- [root@localhost opt]# cd elasticsearch-head-master/
- [root@localhost elasticsearch-head-master]# npm install #安装依赖包
- [root@localhost elasticsearch-head-master]# vim /etc/elasticsearch/elasticsearch.yml
- 末尾添加以下内容:
- ......
- http.cors.enabled: true #开启跨域访问支持,默认为 false
- http.cors.allow-origin: "*" #指定跨域访问允许的域名地址为所有
-
- [root@localhost elasticsearch-head-master]# systemctl restart elasticsearch
必须在解压后的 elasticsearch-head-master 目录下启动服务,进程会读取该目录下的 gruntfile.js 文件,否则可能启动失败。
- [root@localhost elasticsearch-head-master]# npm run start &
- [1] 51744
- [root@localhost elasticsearch-head-master]#
- > elasticsearch-head@0.0.0 start /opt/elasticsearch-head-master
- > grunt server
-
- Running "connect:server" (connect) task
- Waiting forever...
- Started connect web server on http://localhost:9100

elasticsearch-head 监听的端口是 9100
- [root@localhost elasticsearch-head-master]# netstat -natp |grep 9100
- tcp 0 0 0.0.0.0:9100 0.0.0.0:* LISTEN 51754/grunt
通过浏览器访问 http://192.168.80.10:9100/ 地址并连接群集。如果看到群集健康值为 green 绿色,代表群集很健康。
API基本格式:http://ip:port/<索引>/<类型>/<文档id>
#通过命令创建一个测试索引,索引为 index-demo,类型为 test。
- [root@localhost elasticsearch-head-master]# curl -X PUT 'localhost:9200/index-demo/test/1?pretty&pretty' \
- > -H 'content-Type: application/json' \
- > -d '{"user":"zhangsan","mesg":"hello world"}' #输出结果如下所示:
- {
- "_index" : "index-demo",
- "_type" : "test",
- "_id" : "1",
- "_version" : 1,
- "result" : "created",
- "_shards" : {
- "total" : 2,
- "successful" : 2,
- "failed" : 0
- },
- "_seq_no" : 0,
- "_primary_term" : 1
- }
浏览器访问 http://192.168.80.10:9100/ 查看索引信息,可以看见索引默认被分片5个,并且有一个副本
点击“数据浏览”,会发现在node1上创建的索引为 index-demo,类型为 test 的相关信息


- curl -X PUT 'http://ES-IP:9200/<索引名>/<类型>/
?pretty&pretty' \ - -H 'content-Type: application/json' -d '{"键1":"值1","键2":"值2"}'
curl -X DELETE 'http://ES-IP:9200/<索引名>'
curl -X GET 'http://ES-IP:9200/<索引名>/_settings'
- curl -X PUT 'http://ES-IP:9200/<索引名>/_settings' \
- -H 'content-Type: application/json' -d '{"键":"值"}'
- curl -X POST 'http://ES-IP:9200/_aliases' \
- -H 'Content-Type: application/json' -d '{"actions":[{"add":{"index":"索引名","alias":"索引别名"}}]}'
- curl -X POST 'http://ES-IP:9200/_aliases' \
- -H 'Content-Type: application/json' -d '{"actions":[{"remove":{"index":"索引名","alias":"索引别名"}}]}'
使用 Kibana 接入 Elasticsearch ,可在 Kibana 的 Web 页面【管理】-【索引管理】中图形化管理索引
- [root@localhost ~]# hostnamectl set-hostname apache
- [root@localhost ~]# bash
- [root@apache ~]#
- [root@apache ~]# yum -y install httpd
- 已加载插件:fastestmirror, langpacks
- Loading mirror speeds from cached hostfile
- 软件包 httpd-2.4.6-97.el7.centos.5.x86_64 已安装并且是最新版本
- 无须任何处理
- [root@apache ~]# systemctl start httpd
- [root@apache ~]# yum -y install java-1.8.0-openjdk*
- [root@apache ~]# java -version
- openjdk version "1.8.0_332"
- OpenJDK Runtime Environment (build 1.8.0_332-b09)
- OpenJDK 64-Bit Server VM (build 25.332-b09, mixed mode)
上传软件包 logstash-6.7.2.rpm 到/opt目录下
- [root@apache ~]# cd /opt/
- [root@apache opt]# rpm -ivh logstash-6.7.2.rpm
- 警告:logstash-6.7.2.rpm: 头V4 RSA/SHA512 Signature, 密钥 ID d88e42b4: NOKEY
- 准备中... ################################# [100%]
- 正在升级/安装...
- 1:logstash-1:6.7.2-1 ################################# [100%]
- Using provided startup.options file: /etc/logstash/startup.options
- /usr/share/logstash/vendor/bundle/jruby/2.5.0/gems/pleaserun-0.0.30/lib/pleaserun/platform/base.rb:112: warning: constant ::Fixnum is deprecated
- Successfully created system startup script for Logstash
- [root@apache opt]# systemctl start logstash.service
- [root@apache opt]# systemctl enable logstash.service
- Created symlink from /etc/systemd/system/multi-user.target.wants/logstash.service to /etc/systemd/system/logstash.service.
[root@apache opt]# ln -s /usr/share/logstash/bin/logstash /usr/local/bin/
使用 rubydebug 输出详细格式显示,codec 为一种编解码器
logstash -e 'input { stdin{} } output { stdout{ codec=>rubydebug } }'

使用 Logstash 将信息写入 Elasticsearch 中
logstash -e 'input { stdin{} } output { elasticsearch { hosts=>["192.168.80.10:9200"] } }'

结果不在标准输出显示,而是发送至 Elasticsearch 中,可浏览器访问 http://192.168.80.10:9100/ 查看索引信息和数据浏览。

- [root@apache opt]# chmod +r /var/log/messages #让 Logstash 可以读取日志
- [root@apache opt]# cd /etc/logstash/conf.d/
- [root@apache conf.d]# vim system.conf
- 添加内容如下:
- input {
- file{
- path =>"/var/log/messages"
- type =>"system"
- start_position =>"beginning"
- # ignore_older => 84600
- sincedb_path => "/etc/logstash/sincedb_path/log_progress"
- add_field => {"log_hostname"=>"${HOSTNAME}"}
- }
- }
-
- output {
- elasticsearch { #输出到 elasticsearch
- hosts => ["192.168.80.10:9200","192.168.80.20:9200"] #指定 elasticsearch 服务器的地址和端口
- index =>"system-%{+yyyy.MM.dd}" #指定输出到 elasticsearch 的索引格式
- }
- }
- [root@apache conf.d]# mkdir /etc/logstash/sincedb_path/
- [root@apache conf.d]# touch /etc/logstash/sincedb_path/log_progress
- [root@apache conf.d]# chown logstash:logstash /etc/logstash/sincedb_path/log_progress
- [root@apache conf.d]# logstash -f system.conf

浏览器访问 http://192.168.80.10:9100/ 查看索引信息

- -f:通过这个选项可以指定 Logstash 的配置文件,根据配置文件配置 Logstash 的输入和输出流。
- -e:从命令行中获取,输入、输出后面跟着字符串,该字符串可以被当作 Logstash 的配置(如果是空,则默认使用 stdin 作为输入,stdout 作为输出)。
- -t:测试配置文件是否正确。
- -w:指定filter线程数量,默认线程数是 5
- -l:指定日志文件名称
输入采用标准输入,输出采用标准输出(类似管道),新版本默认使用 rubydebug 格式输出
logstash -e 'input { stdin{} } output { stdout{} }'
Logstash 配置文件基本由三部分组成:input、output 以及 filter(可选,根据需要选择使用)
file beats kafka redis stdin
- grok 对若干个大文本字段进行再分割成一些小字段 (?<字段名>正则表达式) 字段名: 正则表达式匹配到的内容
- date 对数据中的时间格式进行统一和格式化
- mutate 可以重命名,删除,替换和修改事件中的字段。比如对一些无用的字段进行剔除,或增加自定义的字段
- multiline 对多行数据进行统一编排,将多行数据汇总为一个单一的行
elasticsearch stdout
格式如下:
- input {...}
- filter {...}
- output {...}
在每个部分中,也可以指定多个访问方式。例如,若要指定两个日志来源文件,则格式如下:
- input {
- file { path =>"/var/log/messages" type =>"syslog"}
- file { path =>"/var/log/httpd/access.log" type =>"apache"}
- }
上传软件包 kibana-6.7.2-x86_64.rpm 到/opt目录
- [root@localhost elasticsearch-head-master]# cd /opt
- [root@localhost opt]# rpm -ivh kibana-6.7.2-x86_64.rpm
- 警告:kibana-6.7.2-x86_64.rpm: 头V4 RSA/SHA512 Signature, 密钥 ID d88e42b4: NOKEY
- 准备中... ################################# [100%]
- 正在升级/安装...
- 1:kibana-6.7.2-1 ################################# [100%]
- [root@localhost opt]# vim /etc/kibana/kibana.yml
- 修改内容如下:
- --2--取消注释,Kiabana 服务的默认监听端口为5601
- server.port: 5601
- --7--取消注释,设置 Kiabana 的监听地址,0.0.0.0代表所有地址
- server.host: "0.0.0.0"
- --28--取消注释,配置es服务器的ip,如果是集群则配置该集群中master节点的ip
- elasticsearch.hosts: ["http://192.168.80.10:9200","http://192.168.80.11:9200"]
- --96--取消注释,配置kibana的日志文件路径(需手动创建),不然默认是messages里记录日志
- logging.dest: /var/log/kibana.log
- --113--取消注释,指定页面字符格式为中文
- i18n.locale: "zh-CN"
- [root@localhost opt]# touch /var/log/kibana.log
- [root@localhost opt]# chown kibana:kibana /var/log/kibana.log
- [root@localhost opt]#
- [root@localhost opt]# systemctl start kibana.service
- [root@localhost opt]# systemctl enable kibana.service
- Created symlink from /etc/systemd/system/multi-user.target.wants/kibana.service to /etc/systemd/system/kibana.service.
- [root@localhost opt]#
- [root@localhost opt]# netstat -natp | grep 5601
- tcp 0 0 0.0.0.0:5601 0.0.0.0:* LISTEN 5066/node
浏览器访问 http://192.168.80.10:5601

左侧[管理],点击【管理菜单】,点击【索引管理】即可在其中进行索引管理

创建索引模式:左侧[管理],点击【管理菜单】,点击【索引模式】,索引模式下对索引进行搜索



①加大服务器内存和JVM堆内存
②用多实例做负载均衡
③使用filebeat替代logstash采集日志数据
①对索引进行优化:优化fsync,适当加大刷盘间隔时间
②优化write线程池配置,减少拒绝任务的情况:修改ES配置文件elasticsearch.yml,设置write线程为 CPU核数+1
③锁定内存,不让ES使用swap:swapoff -a ,关闭swap
④适当的减少索引的分片数、副本数