第一步:安装ElasticSearch的服务
1.配置最大可创建文件数大小(应对文件很大下载失败的情况)
#打开系统文件:
vim /etc/sysctl.conf
#添加以下配置:
vm.max_map_count=655360
#配置生效:
sysctl -p
2.es不能以root用户运行,我们需要创建一个非root用户。
useradd es
3.安装服务,自行去官网下载elastic search的压缩包。注意:7以前的版本需要有Java环境,7以后自带Java环境。
#解压:
tar -zxvf elasticsearch-7.17.0-linux-x86_64.tar.gz
#重命名:
mv elasticsearch-7.17.0 elasticsearch1
#移动文件夹:
mv elasticsearch1 /usr/local/
#es用户取得该文件夹权限:
chown -R es:es /usr/local/elasticsearch1
4.启动es服务
#切换为es用户:
su es
#进入ES安装文件夹:
cd /usr/local/elasticsearch1/bin/
#启动ES服务:
./elasticsearch
#查询ES服务是否启动成功
curl 127.0.0.1:9200
注意点:es必须以以非root用户来运行。
第二步:安装kibana
1.下载压缩包,必须和elasticSearch版本一致。
tar -zxvf kibana-7.17.0-linux-x86_64.tar.gz -C /usr/local
2.修改配置
# 进入Kibana解压路径
cd /usr/local/kibana-7.17.0-linux-x86_64/config
# 修改配置文件
vim kibana.yml
# 加入以下内容
# kibana主机IP
server.host: "虚拟机IP"
# Elasticsearch路径
elasticsearch.hosts:
["http://127.0.0.1:9200"]
3.启动,必须以非root用户启动
# 给es用户设置kibana目录权限
chown -R es:es /usr/local/kibana-7.17.0-
linux-x86_64/
# 切换为es用户
su es
# 启动kibana
cd /usr/local/kibana-7.17.0-linux-x86_64/bin/
./kibana
点击 Management => Index Management 可以查看es索引信息。
第三步:分词器
es中默认分词器是英文分词器,方便使用,我们可以下载中文分词器,或者拼音分词器,以中文分词器为例:
IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词
工具包。提供了两种分词算法:
ik_smart:最少切分
ik_max_word:最细粒度划分
注:ik分词器的版本要和es版本保持一致。
解压ik分词器到elasticsearch的plugins目录下
unzip elasticsearch-analysis-ik-7.17.0.zip
-d
/usr/local/elasticsearch1/plugins/analysis
-ik
IK分词器词典
IK分词器根据词典进行分词,词典文件在IK分词器的config目录中。
main.dic:IK中内置的词典。记录了IK统计的所有中文单词。
IKAnalyzer.cfg.xml:用于配置自定义词库。