ES配置的官方网站:https://www.elastic.co/guide/en/elasticsearch/reference/7.2/circuit-breaker.html
circuit_breaking_exception[[parent] Data too large, data for [] would be [12318476937/11.2gb], which is larger than the limit of [12237372108/12.2gb], real usage: [12318456248/11.2gb]
原因:
(1)表面原因是在ES中大量内存被占用(比如开启logstash的多线程写入的时候,在未达到默认FullGC的门槛的时候,会直接将ES熔断器熔断,因为熔断器的total.limit小于FulGC默认的内存的75%),GC无法对heap进行垃圾回收,导致node内存用量超出limit限制。
(2)每次查询ES会将查询结果缓存到内存里面,方便下一次查询索引时更快速,如果一直不清理缓存的数据就有可能内存溢出。
解决:1、在elasticsearch.yml添加配置:
# 缓存回收大小,无默认值
# 有了这个设置,最久未使用(LRU)的 fielddata 会被回收为新数据腾出空间
# 控制fielddata允许内存大小,达到HEAP 20% 自动清理旧cache,默认是无限缓存下去,肯定会超内存然后内存溢出
indices.fielddata.cache.size: 20%
# -----------------------------------主要是添加上面的那一个配置-------------------------------
indices.breaker.total.use_real_memory: false
# fielddata 断路器默认设置堆的 60% 作为 fielddata 大小的上限。
indices.breaker.fielddata.limit: 40%
# request 断路器估算需要完成其他请求部分的结构大小,例如创建一个聚合桶,默认限制是堆内存的 40%。
indices.breaker.request.limit: 40%
# total 揉合 request 和 fielddata 断路器保证两者组合起来不会使用超过堆内存的 70%(默认值)。
indices.breaker.total.limit: 95%