• Milvus跨集群数据迁移


    318f2ffc762c76730724131de0d774be.png

    将 Milvus 数据从 A 集群(K8S集群)迁到 B 集群(K8S集群),解决方案很多,这里提供一个使用官方 milvus-backup 工具进行数据迁移的方案。

    注意:此方案为非实时同步方案,但借助 MinIO 客户端的数据同步功能,应该也是可以做到实时同步迁移。

    9ca1361fc42757c5d3680bc305a8c17e.jpeg

    步骤概览

    • 制作 milvus-backup 镜像,方便备份工具在 K8S 集群中使用 service name 访问 milvus 和 minio

    • 创建 milvus-backup 工作负载

    • 进入 milvus-backup 容器,修改 configs/backup.yaml 配置

    • 备份集群数据到本地存储中

    • 将数据拷贝到新集群中进行恢复

    01. 

    制作 milvus-backup 镜像

    注意:如果是在两个单机版的 milvus 之间迁移数据,是不需要 milvus-backup 镜像的,又或者,如果 k8s 集群部署了 milvus, minio 的 nodeport 服务,也是可以不用镜像的。可以到官方 release 中下载一个二进制应用程序即可。

    由于当前官方暂未提供 milvus-backup 的镜像,但官方提供了 Dockerfile,因此可以 git clone 一下官方代码仓库后使用 docker build 制作镜像。

    1. #制作 milvus-backup 镜像
    2. git clone git@github.com:zilliztech/milvus-backup.git
    3. cd milvus-backup
    4. docker build -t milvus/milvus-backup:main .

    c30401012baf71230c8dbd3c0ce14e3c.jpeg

    在 build 之前可以修改一下 Dockerfile,加快 build 速度,请参考:

    1. #Build 加速,并添加 minio 客户端工具
    2. FROM golang:1.18 AS builder
    3. ENV CGO_ENABLED=0
    4. ENV GOPROXY https://goproxy.cn,direct
    5. WORKDIR /app
    6. COPY . .
    7. RUN go mod tidy
    8. RUN go build -ldflags="-s -w" -o /app/milvus-backup
    9. RUN wget -P /app https://dl.minio.org.cn/client/mc/release/linux-amd64/mc
    10. RUN chmod +x /app/mc
    11. FROM alpine:3.17
    12. WORKDIR /app
    13. COPY --from=builder /app/milvus-backup .
    14. COPY --from=builder /app/configs ./configs
    15. COPY --from=builder /app/mc .
    16. EXPOSE 8080
    17. ENTRYPOINT ["/app/milvus-backup""server"]

    镜像制作好之后推送到 Docker Registry 以方便后续在 K8S 上创建工作负载。

    9c19ee534626aea292a77e1c85eec823.jpeg

    02. 

    在 K8S 集群中创建 milvus-backup 工作负载(Deployment)

    可以使用 kubectl 创建工作负载,也可以使用 K8S 管理后台(Kuboard / Kubesphere)创建,使用云端 K8S 的也一样,这里不展开。

    注意一下,由于需要在两个集群间迁移,因此创建工作负载的时候挂载一个共享存储(/backup),方便迁移 MinIO 备份后的数据。

    91488132a3517774f1e84babf9df7c78.jpeg

    03. 

    修改 configs/backup.yaml 文件

    使用 kubectl 或者 K8S 管理后台进入 milvus-backup 容器,这里有一点要注意,milvus-backup 容器里没有 bash,只有 sh,所以请使用正确的 shell(/bin/sh)。

    在容器的工作目录(/app)中有 milvus-backup 和 mc 2个二进制包和 configs 文件夹,mc 即 MinIO 客户端程序,configs 目录下 backup.yaml 即 milvus-backup 的默认配置文件。接下修改 backup.yaml 以适配当前集群的 milvus 和 minio,需要修改的项目有:

    1. #backup.yaml
    2. milvus:
    3.   address: localhost
    4. ...
    5. minio:
    6.   address: localhost # Address of MinIO/S3
    7.   ...
    8.   bucketName: "a-bucket" # Milvus Bucket name in MinIO/S3, make it the same as your milvus instance
    9.   rootPath: "files" # Milvus storage root path in MinIO/S3, make it the same as your milvus instance
    10.   ...
    11. backup:
    12.   ...
    13.   gcPause:
    14.     ...
    15.     address: http://localhost:9091

    接下来,详细说明一下需要修改的配置:

    milvus.address:对应 K8S 中 milvus 服务,milvus 默认会创建一个 xxx-milvus 类型为 ClusterIP 的服务,这里可使用服务名填写,比如:milvus-cluster-1-milvus,“milvus-cluster-1”是部署 milvus 时的 release name,有映像的话,官方叫:my-release;

    minio.address:对应用 K8S 中 minio 服务,同上;

    minio.buketName:  参考集群容器中/milvus/configs/milvus.yaml文件中的 minio 节点,默认也是:my-release;

    minio.rootPath:同上,使用 milvus operator 集群部署时,默认为:files;

    backup.gcPause.address:同 milvus.address;

    还有 2 个配置需要注意:

    minio.backupBucketName

    minio.backupRootPath

    这 2 个是备份文件存放的目录,后续我们需要使用 MinIO 客户端将文件拷贝到本地存储中。

    修改好之后使用 ./milvus-backup check 检查一下。

    7d603fe5b77efc65f237fd6a228c3353.jpeg

    04. 

    备份当前集群数据到本地存储中

    使用 milvus-backup 工具备份数据,这里可以直接参考 ./milvus-backup -h,milvus 系列的文档还是非常棒的。

    3942bdd26f5323fd1f57706175b71dfa.jpeg

    如果数据量不大,备份速度很快,原理官方文档也讲了,这里不再介绍。备份好的之后,就可以使用 MinIO 客户端来查看数据了。

    配置 MinIO 客户端

    1. #添加 host
    2. ./mc config host add minio_1 http://my-release-minio:9000 minioadmin minioadmin

    bb39ab29a9e191b710e65efb69932b59.jpeg

    查看备份好的目录

    1. #查看备份目录
    2. ./mc ls minio_1/a-bucket/backup

    这里会列出上面使用 milvus-backup create 创建的备份

    将备份好的文件拷贝到本地存储中

    ./mc cp -r minio_1/a-bucket/backup/mydb-20240510 /backup

    这里的 /backup 目录是挂载的共享存储。

    aef4c2545b1573638b0604f3647137e0.jpeg

    05. 

    恢复数据到新的集群中

    进入新的集群(B)执行步骤 2和步骤 3,在步骤 3 中将 backup.yaml 中的配置修改成集群 B 的链接信息。可以把 backup-cluster-a.yaml, backup-cluster-b.yaml 放到共享存储 /backup 中,防止 pod 重启配置丢失。然后将共享目录中备份好的文件拷贝到新集群的 MinIO 中,使用 milvus-backup 恢复即可!

    d0b9579b1b269322df344a4e0ba729d8.jpeg

    注意,记得恢复的时候带上--restore_index参数,这样恢复的时候会带索引一起恢复出来。恢复好之后使用 Attu 加载一下 collection,就可以正常使用了。

    d7f594784a9de3bf582a03d2afec352e.jpeg

    推荐阅读

    c7cde79095490178ab7e43cb44667d5f.png

    ef8ceeb030bb32e947c074ca81ac1df0.png

    d83cecfc82770b8ba35fa15b109a55ad.png

  • 相关阅读:
    计算机操作系统学习(三)处理器管理(1)
    excel中如何使用Replace函数?
    剑指 Offer 04. 二维数组中的查找
    scrapy typeerror: attrs() got an unexpected keyword argument ‘eq‘
    Java——JDK1.8新特性
    文盘Rust -- struct 中的生命周期
    VS 将 localhost访问改为ip访问
    前端页面JS基础学习Day03
    ONEPIECE!程序环境和预处理——C语言最终章
    可以实时监控电脑的软件有哪些?
  • 原文地址:https://blog.csdn.net/weixin_44839084/article/details/139667827