• Apache APISIX在微软云 ARM 和 x86 服务器上的性能测试对比


    背景

    今年 4 月,微软宣布推出基于 Ampere® Altra® Arm 处理器的 Azure 虚拟机系列预览版。新的 VM 系列包括通用 Dpsv5 和内存优化的 Epsv5,具体信息参考下图:

    在这里插入图片描述

    值得注意的是,Ampere® Altra® Arm 是一款云原生处理器,基于 Ampere® Altra® Arm 处理器的 Azure 虚拟机也因此能以高效的方式运行横向扩展的云原生应用程序。

    那么实际体验和性能如何呢?接下来我们将以一个云原生的 API 网关为例,带大家一起看看基于 ARM 架构的 Azure 虚拟机的表现。这里,我们选择了 Apache APISIX 在通用型 Dpdsv5 系列虚拟机上进行安装测试。

    Apache APISIX 是一个云原生、高性能、可扩展的 API 网关。基于 NGNIX + LuaJIT 和 etcd,APISIX 与传统 API 网关相比,具有动态路由和插件热加载特性,特别适合云原生架构下的 API 管理。

    在这里插入图片描述

    前期准备

    首先,我们在 Azure 上启动一个 Dpdsv5 系列的实例,操作系统选择 Ubuntu 20.04。

    在这里插入图片描述

    然后安装 Docker,方便后续使用容器化的方式来部署 Apache APISIX。

    sudo apt-get update && sudo apt-get install docker.io
    
    • 1

    部署 Apache APISIX

    1. Apache APISIX 使用 etcd 作为配置中心,因此需要先启动一个 etcd 实例。
    sudo docker run -d --name etcd \
        -p 2379:2379 \
        -e ETCD_UNSUPPORTED_ARCH=arm64 \
        -e ETCD_LISTEN_CLIENT_URLS=http://0.0.0.0:2379 \
        -e ETCD_ADVERTISE_CLIENT_URLS=http://0.0.0.0:2379 \
        rancher/coreos-etcd:v3.4.16-arm64
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    1. 启动 Apache APISIX 实例。
    sudo docker run --net=host -d apache/apisix:2.14.1-alpine
    
    • 1
    1. 创建路由。
    curl "http://127.0.0.1:9080/apisix/admin/routes/1" \
    -H "X-API-KEY: edd1c9f034335f136f87ad84b625c8f1" -X PUT -d '
    {  
        "uri": "/anything/*",
        "upstream": {
            "type": "roundrobin",
            "nodes": {
                  "httpbin.org:80": 1
            }
        }
    }'
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    1. 访问测试。
    curl -i http://127.0.0.1:9080/anything/das
    
    • 1

    返回以下结果则表示安装成功:

    HTTP/1.1 200 OK
    .....
    
    • 1
    • 2

    Azure Ddsv5 vs Azure Dpdsv5

    从上述操作来看,Apache APISIX 在 Azure Dpdsv5 上的安装和兼容性测试都能顺利完成。那么 Azure Dpdsv5 的实际性能到底如何呢?接下来我们将使用 Apache APISIX 分别在 Azure Dpdsv5 和 Azure Ddsv5 上做性能测试对比,看看实际表现。

    Azure Ddsv5 是 Azure D 系列的另一款机型,是基于 Intel® x86 架构的, 所以上述 etcd 安装步骤略有不同:

    sudo docker run -d --name etcd \
        -p 2379:2379 \
        -e ETCD_LISTEN_CLIENT_URLS=http://0.0.0.0:2379 \
        -e ALLOW_NONE_AUTHENTICATION=yes \
        -e ETCD_ADVERTISE_CLIENT_URLS=http://0.0.0.0:2379 \
        bitnami/etcd:3.4.16
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    为简单起见,本次测试 APISIX 中只启用了一个 Worker,以下性能测试数据均在单核 CPU 上运行。

    场景一:单上游

    该场景下将使用单个上游(不包含任何插件),主要测试 APISIX 在纯代理回源模式下的性能表现。在本地环境中进行测试:

    # apisix: 1 worker + 1 upstream + no plugin
    
    # 注册路由
    curl http://127.0.0.1:9080/apisix/admin/routes/1 \
    -H 'X-API-KEY: edd1c9f034335f136f87ad84b625c8f1' -X PUT -d '
    {
        "uri": "/hello",
        "plugins": {
        },
        "upstream": {
            "type": "roundrobin",
            "nodes": {
                "127.0.0.1:1980":1
            }
        }
    }'
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16

    场景 2:单个上游 + 两个插件

    该场景下将使用单个上游与两个插件进行,主要测试 APISIX 在开启 limit-countprometheus 两个核心性能消耗插件时的表现。

    # apisix: 1 worker + 1 upstream + 2 plugins (limit-count + prometheus)
    
    # 注册路由
    curl http://127.0.0.1:9080/apisix/admin/routes/1 \
    -H 'X-API-KEY: edd1c9f034335f136f87ad84b625c8f1' -X PUT -d '
    {
        "uri": "/hello",
        "plugins": {
            "limit-count": {
                "count": 2000000000000,
                "time_window": 60,
                "rejected_code": 503,
                "key": "remote_addr"
            },
            "prometheus": {}
        },
        "upstream": {
            "type": "roundrobin",
            "nodes": {
                "127.0.0.1:1980":1
            }
        }
    }'
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23

    数据比较

    上述两个场景中,分别从请求 QPS(每秒查询数)延迟时间两个层面进行了相关的测试对比。结果如下:

    1. QPS 比较

    在这里插入图片描述

    1. 请求延迟比较

    在这里插入图片描述

    单个上游单个上游+两个插件
    Azure Ddsv5Azure Dpdsv5Azure Ddsv5Azure Dpdsv5
    QPS(request/sec)14900134001310011000
    Latency(ms)1.071.211.211.43

    从以上数据也可以看出,在 API 网关等网络 IO 密集计算场景下,Dpdsv5 相比同系列 Ddsv5 在性能上仍然有差距。不过好消息是,在同等配置的情况下,Dpdsv5 的价格要比 Ddsv5 便宜 20% 左右。在实际机器选型时,用户可以根据自己的业务体量来灵活决策。

    总结

    本文主要使用 Apache APISIX 来对比 Azure Ddsv5 和 Azure Dpdsv5 的性能。从结果可以看出 Azure Dpdsv5 相比 Ddsv5,表现虽然不是那么亮眼,但是由于该系列的机型尚处于预览版,微软正在进行持续的改进和优化,我们也非常期待它的后续表现。

  • 相关阅读:
    2022高教社杯思路汇总A题B题C题D题
    Oracle-Autoupgrade方式升级19c
    BUUCTF刷题十一道(09)
    Dubbo基础
    基于微信小程序的美食推荐系统的设计与实现
    一文看懂分布式存储架构
    Day02-事件绑定
    C:数组传值调用和传地址调用
    计算机视觉岗实习面经
    漫画sql数据分析
  • 原文地址:https://blog.csdn.net/ApacheAPISIX/article/details/126286139