• Elasticsearch快照备份


    目录

    1、Repositories

    1、配置路径

    2、注册快照存储库

    2、查看注册的库

    3、创建快照

    1、为全部索引创建快照

    2、为指定索引创建快照

    4、查看备份完成的列表

    5、删除快照

    6、从快照恢复

    1、恢复指定索引

    2、恢复所有索引(除.开头的系统索引)

    3、恢复所有索引(包含.开头的系统索引)

    4、将快照恢复到Indexing Service实例中。

    7、查看快照恢复信息

    1、查看快照中指定索引的恢复状态

    2、查看集群中的所有索引的恢复信息

    8、删除正在进行快照恢复的索引

    2、备份脚本

    1、Elasticsearch索引备份

    2、Elasticsearch索引清理


    快照是增量的,可以包含在多个ES版本中创建的索引。如果在一个快照中的任何索引时在不兼容的ES版本中创建的,你将不能恢复该快照。

    在升级前备份数据的时候,如果快照中的索引是在与你升级版本不兼容的ES版本中创建的,那么这些快照将不能被恢复。

    如果你的情况是需要恢复一个与你当前运行的集群版本不兼容的索引快照,你可以先恢复到最新的兼容版本中,然后在当前版本中使用 reindex-from-remote 重建索引。远程Reindexing只能在源索引source为enabled的情况下进行。获取并重建数据索引的时间可能比简单恢复快照要长的多。如果你的数据量较大,建议先用一部分数据测试远程reindex,以便了解需要花费的时间

    1、Repositories

    必须先注册一个快照仓库,然后才能进行快照和恢复操作。建议为每个主版本创建一个新快照仓库。有效的仓库设置取决于仓库类型。

    如果多个集群注册同一个快照仓库,只有一个集群可以对仓库进行写访问,其他所有集群应该设置该仓库为 readonly 模式。

    跨主版本时快照格式可能会改变,所以不同版本的集群写同一个快照仓库,某个版本写的快照可能对其他版本不可见,仓库快照也存在问题。ES不支持仓库对所有集群设置为readonly,其中一个集群和不同主版本的多个集群一起工作。

    关于备份可以分为备份数据,备份集群配置,备份安全配置

    关于还原可以分为还原数据,还原安全配置

    1、配置路径

    大致分为以下几步(如果您的集群启用了安全功能,则在备份数据时必须授权快照API调用)

    修改elasticsearch.yml添加快照存储位置配置

    1. cat elasticsearch.yml
    2. node.name: node-1
    3. discovery.seed_hosts: ["172.18.199.93"]
    4. cluster.initial_master_nodes: node-1
    5. network.host: 0.0.0.0
    6. path.data: /data02/elasticsearch/data
    7. path.logs: /data02/elasticsearch/logs
    8. xpack.security.enabled: true
    9. xpack.license.self_generated.type: basic
    10. xpack.security.transport.ssl.enabled: true
    11. xpack.sql.enabled: false
    12. http.cors.enabled: true
    13. http.cors.allow-credentials: true
    14. http.cors.allow-origin: "/.*/"
    15. http.cors.allow-headers: WWW-Authenticate,X-Requested-With,X-Auth-Token,Content-Type,Content-Length,Authorization
    16. # 避免发生OOM,发生OOM对集群影响很大的,揉合 request 和 fielddata 断路器保证两者组合起来不会使用超过堆内存的 70%。
    17. indices.breaker.total.limit: 80%
    18. # 有了这个设置,最久未使用(LRU)的 fielddata 会被回收为新数据腾出空间  
    19. indices.fielddata.cache.size: 10%
    20. #
    21. # # fielddata 断路器默认设置堆的 作为 fielddata 大小的上限。
    22. indices.breaker.fielddata.limit: 60%
    23. #
    24. # #request 断路器估算需要完成其他请求部分的结构大小,例如创建一个聚合桶,默认限制是堆内存的 40%。
    25. indices.breaker.request.limit: 40%
    26. #
    27. # #最久未使用(LRU)的 fielddata 会被回收为新数据腾出空间 必须要添加的配置
    28. indices.breaker.total.use_real_memory: false
    29. ####副本数设置唯一
    30. #索引调优
    31. #
    32. indices.memory.index_buffer_size: 20%
    33. indices.memory.min_index_buffer_size: 96mb
    34. # Search pool
    35. thread_pool.search.size: 5
    36. discovery.zen.fd.ping_timeout: 120s
    37. discovery.zen.fd.ping_retries: 6
    38. discovery.zen.fd.ping_interval: 30s
    39. #仓库
    40. path.repo: ["/data/es_snapshot"]
    给备份目录权限
    chown -R es:es  /data/es_snapshot

    2、注册快照存储库

    快照可以存储在本地或远程存储库中。远程存储库可以驻留在 Amazon S3、HDFS、Microsoft Azure、Google Cloud Storage 和存储库插件支持的其他平台上。

    除了location 参数外,还可以通过max_snapshot_bytes_per_secmax_restore_bytes_per_sec 来限制备份和恢复时的速度

    查看快照仓库。

    GET _snapshot
    1. curl -XPUT 'http://192.168.18.15:9200/_snapshot/backup(仓库名称)' -d '{
    2. "type": "fs",
    3. "settings": {
    4. "location": "/data/es_snapshot",
    5. "compress": true #压缩
    6. }
    7. }'

    或者在Kibana console中输入如下的命令进行注册也可以

    1. PUT _snapshot/backup
    2. {
    3. "type": "fs",
    4. "settings": {
    5. "location": "/data/es_snapshot",
    6. "compress": true
    7. }

    2、查看注册的库

    GET _snapshot/

    GET _snapshot/

    3、创建快照

    自建Elasticsearch中创建一个快照,用来备份您需要迁移的索引数据。创建快照时,默认会备份所有打开的索引。如果您不想备份系统索引,例如以.kibana.security.monitoring等开头的索引,可在创建快照时指定需要备份的索引

    注意: 建议您不要备份系统索引,因为系统索引会占用较大空间。

    1、为全部索引创建快照

    PUT _snapshot/my_backup/snapshot_1

    以上命令会为所有打开的索引创建名称为snapshot_1的快照,并保存到my_backup仓库中。该命令会立刻返回,并在后台执行备份任务。如果您希望任务执行完成后再返回,可通过添加wait_for_completion实现。该参数会阻塞调用直到备份完成,如果是大型快照,需要很长时间才能返回。

    PUT _snapshot/my_backup/snapshot_1?wait_for_completion=true

    说明

    • 一个仓库可以包含多个快照,每个快照中可以包含所有、部分或单个索引的备份数据。

    • 第一次创建快照时,系统会备份所有的数据,后续所有的快照仅备份已存快照和新快照之间的增量数据。随着快照的不断进行,备份也在增量的添加和删除。这意味着后续备份会相当快速,因为它们只传输很小的数据量。

    2、为指定索引创建快照

    系统默认会备份所有打开的索引。如果您在使用Kibana,并且考虑到磁盘空间大小因素,不需要把所有诊断相关的.kibana索引都备份起来,那么可以在创建快照时,指定需要备份的索引。

    1. PUT _snapshot/my_backup/snapshot_2
    2. {
    3. "indices": "index_1,index_2"
    4. }

    4、查看备份完成的列表

    1. 查看所有快照信息
    2. GET _snapshot/my_backup/_all
    3. 根据快照名查看指定快照的信息
    4. GET _snapshot/my_backup/snapshot_3
    5. 使用_status API查看指定快照的信息
    6. GET _snapshot/my_backup/snapshot_3/_status

    5、删除快照

    删除指定的快照。如果该快照正在进行,执行以下命令,系统会中断快照进程并删除仓库中创建到一半的快照。

    DELETE _snapshot/my_backup/snapshot_3

    注意 删除快照请使用DELETE API,而不能使用其他机制删除(例如手动删除可能会造成备份严重损坏)。因为快照是增量的,很多快照可能依赖于之前的备份数据。DELETE API能够过滤出还在被其他快照使用的数据,只删除不再被使用的备份数据。

    6、从快照恢复

    注意

    • 建议不要恢复.开头的系统索引,此操作可能会导致Kibana访问失败。

    • 如果集群中存在与待恢复索引同名的索引,需要提前删除或者关闭该同名索引后再恢复,否则恢复失败。

    • 如果需要跨地域恢复集群快照,需要先将原地域OSS中的快照数据迁移到目标地域的OSS中,再恢复到目标地域的Elasticsearch集群中。OSS间迁移的具体操作,请参见阿里云OSS之间迁移教程

    1、恢复指定索引

    如果您需要在不替换现有数据的前提下,恢复旧版本的数据来验证内容,或者进行其他处理,可恢复指定的索引,并重命名该索引。

    1. POST /_snapshot/my_backup/snapshot_1/_restore
    2. {
    3. "indices": "index_1",
    4. "rename_pattern": "index_(.+)",
    5. "rename_replacement": "restored_index_$1"
    6. }
    参数说明
    indices只恢复index_1索引,忽略快照中的其他索引。
    rename_pattern查找正在恢复的索引,该索引名称需要与提供的模板匹配。
    rename_replacement重命名查找到的索引。

    2、恢复所有索引(除.开头的系统索引)

    1. POST _snapshot/my_backup/snapshot_1/_restore
    2. {"indices":"*,-.monitoring*,-.security*,-.kibana*","ignore_unavailable":"true"}

    3、恢复所有索引(包含.开头的系统索引)

    POST _snapshot/my_backup/snapshot_1/_restore
    • 假设snapshot_1中包含5个索引,那么这5个索引都会被恢复到集群中。

    • _restore API会立刻返回,恢复进程会在后台进行。如果您希望调用阻塞直到恢复完成,可以添加wait_for_completion参数。

    POST _snapshot/my_backup/snapshot_1/_restore?wait_for_completion=true

    4、将快照恢复到Indexing Service实例中。

    例如将my_backup仓库中,snapshot_1快照中的index_1索引数据恢复到Indexing Service实例中,示例如下。

    ** 说明** 实际使用时,您需要将对应信息替换为您实际的信息。

    1. POST /_snapshot/my_backup/snapshot_1/_restore
    2. {
    3. "indices": "index_1",
    4. "ignore_index_settings": [
    5. "index.apack.cube.following_index"
    6. ]
    7. }

    7、查看快照恢复信息

    您可以通过_recovery API来监控快照恢复的状态、进度等信息。

    1、查看快照中指定索引的恢复状态

    GET restored_index_3/_recovery

    2、查看集群中的所有索引的恢复信息

    说明 获取的恢复信息可能包含跟您的恢复进程无关的其他分片的恢复信息。

    GET /_recovery/
    1. {
    2. "restored_index_3" : {
    3. "shards" : [ {
    4. "id" : 0,
    5. "type" : "snapshot",
    6. "stage" : "index",
    7. "primary" : true,
    8. "start_time" : "2014-02-24T12:15:59.716",
    9. "stop_time" : 0,
    10. "total_time_in_millis" : 175576,
    11. "source" : {
    12. "repository" : "my_backup",
    13. "snapshot" : "snapshot_3",
    14. "index" : "restored_index_3"
    15. },
    16. "target" : {
    17. "id" : "ryqJ5lO5S4-lSFbGnt****",
    18. "hostname" : "my.fqdn",
    19. "ip" : "10.0.**.**",
    20. "name" : "my_es_node"
    21. },
    22. "index" : {
    23. "files" : {
    24. "total" : 73,
    25. "reused" : 0,
    26. "recovered" : 69,
    27. "percent" : "94.5%"
    28. },
    29. "bytes" : {
    30. "total" : 79063092,
    31. "reused" : 0,
    32. "recovered" : 68891939,
    33. "percent" : "87.1%"
    34. },
    35. "total_time_in_millis" : 0
    36. },
    37. "translog" : {
    38. "recovered" : 0,
    39. "total_time_in_millis" : 0
    40. },
    41. "start" : {
    42. "check_index_time" : 0,
    43. "total_time_in_millis" : 0
    44. }
    45. } ]
    46. }
    47. }

     输出结果会展示所有恢复中的索引,并列出这些索引中的所有分片。同时每个分片中会展示启动和停止时间、持续时间、恢复百分比、传输字节数等统计值。部分参数说明如下。

    参数说明
    type恢复的类型。snapshot表示这个分片是在从一个快照恢复。
    source待恢复的快照和仓库。
    percent恢复的进度。94.5%表示对应分片已经恢复了94.5%的数据。

    8、删除正在进行快照恢复的索引

    通过DELETE命令删除正在恢复的索引,取消恢复操作。

    DELETE /restored_index_3

    2、备份脚本

    1、Elasticsearch索引备份

    修改 cron 定时: 将 cron 任务设置为 UTC 时间的 16:00 执行。这样,它将在东八区时间的第二天0点执行,确保覆盖从前一天的0点到24点的数据。

    备份脚本中使用的时间计算 (date +"%Y.%m.%d" -d "-1day") 会导致在 UTC 时间0点运行时实际上备份的是东八区前一天的8点到今天的8点的数据。这样的时间设置导致了0点到8点的数据未被当天的备份覆盖。

    修改脚本

    为了确保备份覆盖正确的数据范围(即东八区的0点到24点),你可以考虑将备份时间调整为 UTC 时间的16:00(即东八区的0:00)执行。这样做将确保捕捉完整的一天数据。

    1. #Elasticsearch索引备份
    2. 0 16 * * * /bin/bash -x /opt/shell-code/es_backup.sh > /opt/shell-code/logs/es_backup.log
    1. #!/bin/bash
    2. #/**********************************************************
    3. # * Author : 南宫乘风
    4. # * Email : 1794748404@qq.com
    5. # * Last modified : 2022-11-03 23:43
    6. # * Filename : 01_ping_check_isalive.sh
    7. # * Description :
    8. # * *******************************************************/
    9. #/bin/bash
    10. ###################################
    11. #日志级别 debug-1, info-2, warn-3, error-4, always-5
    12. LOG_LEVEL=3
    13. user=$(whoami)
    14. #日志文件
    15. LOG_FILE=./Elasticsearch.log
    16. #调试日志
    17. function log_debug() {
    18. content="[DEBUG] $(date '+%Y-%m-%d %H:%M:%S') $0 $user msg : $@"
    19. [ $LOG_LEVEL -le 1 ] && echo $content >>$LOG_FILE
    20. }
    21. #信息日志
    22. function log_info() {
    23. content="[INFO] $(date '+%Y-%m-%d %H:%M:%S') $0 $user msg : $@"
    24. [ $LOG_LEVEL -le 2 ] && echo $content >>$LOG_FILE
    25. }
    26. #警告日志
    27. function log_warn() {
    28. content="[WARN] $(date '+%Y-%m-%d %H:%M:%S') $0 $user msg : $@"
    29. [ $LOG_LEVEL -le 3 ] && echo $content >>$LOG_FILE
    30. }
    31. #错误日志
    32. function log_err() {
    33. content="[ERROR] $(date '+%Y-%m-%d %H:%M:%S') $0 $user msg : $@"
    34. [ $LOG_LEVEL -le 4 ] && echo $content >>$LOG_FILE
    35. }
    36. #一直都会打印的日志
    37. function log_always() {
    38. content="[ALWAYS] $(date '+%Y-%m-%d %H:%M:%S') $0 $user msg : $@"
    39. [ $LOG_LEVEL -le 5 ] && echo $content >>$LOG_FILE
    40. }
    41. # 执行快照备份
    42. #times="2022.09.08 2022.09.09 2022.09.10 2022.09.11 2022.09.12 2022.09.13 2022.09.14 2022.09.15 2022.09.16 2022.09.17 2022.09.18 2022.09.19 2022.09.20 2022.09.21 2022.09.22 2022.09.23 2022.09.24 2022.09.25 2022.09.26 2022.09.27 2022.09.28 2022.09.29 2022.09.30 2022.10.01 2022.10.02 2022.10.03 2022.10.04 2022.10.05 2022.10.06 2022.10.07 2022.10.08 2022.10.09 2022.10.10 2022.10.11 2022.10.12 2022.10.13 2022.10.14 2022.10.15 2022.10.16 2022.10.17 2022.10.18 2022.10.19 2022.10.20 2022.10.21 2022.10.22 2022.10.23 2022.10.24 2022.10.25 2022.10.26 2022.10.27 2022.10.28 2022.10.29 2022.10.30 2022.10.31 2022.11.01 2022.11.02 2022.11.03 2022.11.04 2022.11.05 2022.11.06 2022.11.07 2022.11.08 2022.11.09 "
    43. time=$(date +"%Y.%m.%d" -d "-1day")
    44. host='http://elasticsearch-log.prod.server.fjf:9200'
    45. username='elastic'
    46. password='4reQiUCLB7meNU8VoUsm'
    47. #仓库名称
    48. STORE_NAME="backup"
    49. #curl的绝对路径
    50. CURL_CMD="/usr/bin/curl"
    51. #告警信息
    52. webhook='https://oapi.dingtalk.com/robot/send?access_token=810921774dac36151d8939b6ea68c90df667f50e1313xxxxxxxxxxxx'
    53. cluster='ES备份告警'
    54. function SendMsgToDingding() {
    55. curl $webhook -H 'Content-Type: application/json' -d "
    56. {
    57. 'msgtype': 'text',
    58. 'text': {
    59. 'content': '集群名称:$cluster\n告警信息: $1 已经备份完成 \n'
    60. },
    61. 'at': {
    62. 'isAtAll': true
    63. }
    64. }"
    65. }
    66. list_groups="labor-prod-${time},app-prod-${time},fk-prod-${time}"
    67. curl -s -u elastic:4reQixxxxxVoUsm -sXPUT http://exxxxxxxxxxxxxxxxxxxerver.fjf:9200/_snapshot/backup/log_es_${time}?wait_for_completion=true -H 'Content-Type: application/json' -d'{ "indices": "'${list_groups}'" }'
    68. if [[ $? -eq 0 ]]; then
    69. SendMsgToDingding $list_groups
    70. log_always " $list_groups 已经备份成功"
    71. else
    72. log_err "$list_groups 备份失败,请查看"
    73. fi

    2、Elasticsearch索引清理

    1. # Elasticsearch索引清理
    2. 1 3 * * * bash /opt/shell-code/es_index.sh 2>&1 > /usr/local/script/es_index.log
    1. #author : 南宫乘风
    2. # * Email : 1794748404@qq.com
    3. # * Last modified : 2022-11-03 23:43
    4. # * Filename : 01_ping_check_isalive.sh
    5. # * Description :
    6. # * *******************************************************/
    7. #/bin/bash
    8. ###################################
    9. #!/bin/bash
    10. host='elasticxxxxxxxxxxxxxxxx.fjf'
    11. username='elastic'
    12. password='4reQiUxxxxxxxxxxxxxx'
    13. ########################################### 如下用于清理旧的索引数据 ##########################################
    14. # 清除旧索引
    15. function purgeOldIndexes() {
    16. for i in $INDEXES;
    17. do
    18. for index in `curl -u $username:$password -s http://$host:9200/_cat/indices |grep -P "$i" |awk '{print $3}' |sort -r | tail -n +${NUM}`
    19. do
    20. echo ${index}
    21. curl -u $username:$password -s -XDELETE http://$host:9200/${index}
    22. done
    23. done
    24. }
    25. # 不同索引的日志保留时长要求不同,
    26. NUM=11
    27. INDEXES="monitoring-es
    28. syslog
    29. zipkin-prod:dependency
    30. zipkin-prod:span
    31. "
    32. purgeOldIndexes
    33. sleep 10
    34. NUM=31
    35. INDEXES="logstash-fk-prod
    36. logstash-_doc
    37. logstash-prod
    38. "
    39. purgeOldIndexes
    40. sleep 10
    41. NUM=60
    42. INDEXES="app-prod
    43. fk-prod
    44. "
    45. purgeOldIndexes
    46. sleep 10
    47. NUM=91
    48. INDEXES="labor-prod"
    49. purgeOldIndexes

     文档:通过OSS将自建Elasticsearch数据迁移至阿里云

    自动备份与恢复

    手动备份与恢复

    备份你的集群

    Elasticsearch的Snapshot and Restore(快照备份与恢复)

  • 相关阅读:
    11. 常用类
    代码随想录补打卡 121买卖股票的最佳时机 122 买卖股票的最佳时机 二123买卖股票的最佳时机 三
    Transformers北大源
    最短路Dijkstra和最小生成树Prim算法的同异
    【原理分析】SpringBoot的自动装配原理
    nginx配置指南
    让测试人头疼的这几件“小事”
    如何写一个中间件的springboot的starter?
    信号:singal
    DDT数据驱动性能测试(一)
  • 原文地址:https://blog.csdn.net/heian_99/article/details/127828348