ES集群是一个P2P类型(使用gossip协议)的分布式系统,除了集群状态管理以外,其他所有的请求都可以发送到集群内任意一台节点上,这个节点可以自己找到需要转发给那些节点,并且直接跟这些节点通信。所以从网络架构及服务配置上来说,构建集群所需要的配置及其简单。在ES2.0之前,无阻碍的网络下,所有配置了相同cluster.name
的节点都自动归属到一个集群中。2.0版本之后,基于安全的考虑避免开发环境过于随便造成的麻烦,从2.0版本开始,默认的自动默认的发现方式改为了广播(unicast)方式。配置里提供几台节点的地址。ES将其视作gossip router角色,借以完成集群的发现。由于这只是ES内一个很小的功能,索引gossip router角色并不需要单独配置,每个ES节点都可以担任,索引采用广播方式的集群,各节点都配置相同的几个节点列表作为router即可。
集群中节点数量没有限制,一般大于等于2个节点就可以看做是集群了。一般处于高性能及高可用方面来考虑一般集群中的节点数量都是3个及3个以上。
集群 cluster
一个集群就是由一个或多个节点组织在一起,它们共同持有整个的数据,并一起提供索引和搜索功能。一个集群由一个唯一的名字标识,这个名字默认就是“elasticsearch”。这个名字是重要的,因为一个节点只能通过指定某个集群的名字,来加入这个集群
节点 node
一个节点是集群中的一个服务器,作为集群的一部分,它存储数据,参与集群的索引和搜索功能。和集群类似,一个节点也是由一个名字来标识的,默认情况下,这个名字是一个随机的漫威漫画角色的名字,这个名字会在启动的时候赋予节点。这个名字对于管理工作来说挺重要的,因为在这个管理过程中,你会去确定网络中的哪些服务器对应于Elasticsearch集群中的哪些节点。 一个节点可以通过配置集群名称的方式来加入一个指定的集群。默认情况下,每个节点都会被安排加入到一个叫 做“elasticsearch”的集群中,这意味着,如果你在你的网络中启动了若干个节点,并假定它们能够相互发现彼此, 它们将会自动地形成并加入到一个叫做“elasticsearch”的集群中。 在一个集群里,只要你想,可以拥有任意多个节点。而且,如果当前你的网络中没有运行任何Elasticsearch节点, 这时启动一个节点,会默认创建并加入一个叫做“elasticsearch”的集群。
分片和复制shards&replicas
一个索引可以存储超出单个节点硬件限制的大量数据。比如,一个具有10亿文档的索引占据1TB的磁盘空间,而任一节点都没有这样大的磁盘空间;或者单个节点处理搜索请求,响应太慢。为了解决这个问题,Elasticsearch提供了将索引划分成多份的能力,这些份就叫做分片。当你创建一个索引的时候,你可以指定你想要的分片的数量。每个分片本身也是一个功能完善并且独立的“索引”,这个“索引”可以被放置到集群中的任何节点上。分片很重要,主要有两方面的原因:
允许你水平分割/扩展你的内容容量。
允许你在分片(潜在地,位于多个节点上)之上进行分布式的、并行的操作,进而提高性能/吞吐量。至于一个分片怎样分布,它的文档怎样聚合回搜索请求,是完全由Elasticsearch管理的,对于作为用户的你来说,这些都是透明的。在一个网络/云的环境里,失败随时都可能发生,在某个分片/节点不知怎么的就处于离线状态,或者由于任何原因消失了,这种情况下,有一个故障转移机制是非常有用并且是强烈推荐的。为此目的,Elasticsearch允许你创建分片的一份或多份拷贝,这些拷贝叫做复制分片,或者直接叫复制。复制之所以重要,有两个主要原因: 在分片/节点失败的情况下,提供了高可用性。因为这个原因,注意到复制分片从不与原/主要(original/primary)分片置于同一节点上是非常重要的。扩展你的搜索量/吞吐量,因为搜索可以在所有的复制上并行运行。总之,每个索引可以被分成多个分片。一个索引也可以被复制0次(意思是没有复制)或多次。一旦复制了,每个索引就有了主分片(作为复制源的原来的分片)和复制分片(主分片的拷贝)之别。分片和复制的数量可以在索引创建的时候指定。在索引创建之后,你可以在任何时候动态地改变复制的数量,但是你事后不能改变分片的数量。默认情况下,Elasticsearch中的每个索引被分片5个主分片和1个复制,这意味着,如果你的集群中至少有两个节点,你的索引将会有5个主分片和另外5个复制分片(1个完全拷贝),这样的话每个索引总共就有10个分片。
我们面临的第一个问题就是数据量太大,单点存储量有限的问题。大家觉得应该如何解决?我们可以把数据拆分成多份,每一份存储到不同机器节点(node),从而实现减少每个节点数据量的目的。这就是数据的分布式存储,也叫做:数据分片(Shard)。
数据分片解决了海量数据存储的问题,但是如果出现单点故障,那么分片数据就不再完整,这又该如何解决呢?就像大家为了备份手机数据,会额外存储一份到移动硬盘一样。我们可以给每个分片数据进行备份,存储到其它节点,防止数据丢失,这就是数据备份,也叫数据副本(replica)。
数据备份可以保证高可用,但是每个分片备份一份,所需要的节点数量就会翻一倍,成本实在是太高了!
为了在高可用和成本间寻求平衡,我们可以这样做:首先对数据分片,存储到不同节点
然后对每个分片进行备份,放到对方节点,完成互相备份这样可以大大减少所需要的服务节点数量,如图,我们以3分片,每个分片备份一份为例:
在这个集群中,如果出现单节点故障,并不会导致数据缺失,所以保证了集群的高可用,同时也减少了节点中数据存储量。并且因为是多个节点存储数据,因此用户请求也会分发到不同服务器,并发能力也得到了一定的提升。
1.复制es节点二份,并且删除data
目录,并且删除log文件中的日志,这步必须操作,要不然后面集群会连接不成功
2.修改elasticsearch.yml文件
修改两个节点上的信息,内容如下:
两个节点端口号: http端口号(9201、9202) tcp端口号(9301、9302)
第一个节点配置(elasticsearch.yml)
- # 集群的名字,保证唯一,所有都必须一致 (17行)
- cluster.name: cluster-es
- # 节点名称,必须不一样 (23行)
- node.name: node-1
- # 必须为本机的ip地址 (55行)
- network.host: 127.0.0.1
- # 服务器端口,在同一机器下必须不一样 (59行)
- http.port: 9201
- # 集群间通讯端口号,在同一机器下必须不一样 (60行)
- transport.tcp.port: 9301
- # 设置集群自动发现机器ip:port集合,采用广播模式 (70行)
- discovery.zen.ping.unicast.hosts: ["127.0.0.1:9301","127.0.0.1:9302"]
- # 防止脑裂。声明大于几个的投票主节点有效,请设置为(nodes / 2) + 1 (75行)
- discovery.zen.minimum_master_nodes: 2
-
- # 允许跨域 (92、93行)
- http.cors.enabled: true
- http.cors.allow-origin: "*"
第二个节点配置(elasticsearch.yml):
- # 集群的名字,保证唯一,所有都必须一致 (17行)
- cluster.name: cluster-es
- # 节点名称,必须不一样 (23行 改)
- node.name: node-2
- # 必须为本机的ip地址 (55行)
- network.host: 127.0.0.1
- # 服务器端口,在同一机器下必须不一样 (59行 改)
- http.port: 9202
- # 集群间通讯端口号,在同一机器下必须不一样 (60行 改)
- transport.tcp.port: 9302
- # 设置集群自动发现机器ip:port集合,采用广播模式 (70行)
- discovery.zen.ping.unicast.hosts: ["127.0.0.1:9301","127.0.0.1:9302"]
- # 防止脑裂。声明大于几个的投票主节点有效,请设置为(nodes / 2) + 1 (75行)
- discovery.zen.minimum_master_nodes: 2
-
- # 允许跨域 (92、93行)
- http.cors.enabled: true
- http.cors.allow-origin: "*"
分别启动三个es节点
通过es-header-master查看,连接任意一个节点都可以出现下面的效果,说明集群成功。
看到此界面说明你的集群搭建成功,这个界面我就不多说了吧,elasticsearch-head-master的插件,大家应该在学习时就应该安装过了。实在没安装的,在命令行窗口也能看到两个服务集群成功。