• Apache APISIX不编写任何代码的情况下,简单实现一个 API 实践


    在 API 日渐流行的年代,越来越多的非技术人员也希望能从 API 的使用中获利,而创建一套成熟的 API 方案需要时间成本和金钱两方面的资源加持。在这个过程中,你需要考虑模型、设计、REST 原则等,而不仅仅是编写一行代码。

    如何打造一个具有高性价比且能持续迭代的产品,成为越来越多技术团队的目标。本文将展示如何在不编写任何代码的情况下,简单实现一个 API 实践。

    方案初试

    该解决方案主要使用的是 PostgreSQL 数据库,PostgreSQL 是一个开源 SQL 数据库。同时我们没有编写 REST API,而是使用了 PostgREST 组件。

    PostgREST 是一个独立的 Web 服务器,它可以将 PostgreSQL 数据库直接转换为 RESTful API。如果你想了解 PostgREST 的使用方法,可以参考入门指南文档,内容非常全面且开箱即用。

    接下来,我们将它应用到一个简单的示例中。

    具体步骤

    以下过程你可以在 GitHub 上找到完整源代码。 下方展示了一个通过 CRUD API 公开的 product 表。

    由于我没有找到任何现成的 Docker 镜像,所以我单独创建了一份新的 Dockerfile。其中主要涉及依赖项的安装和参数化数据生成。

    Dockerfile

    1. FROM debian:bookworm-slim                                                   
    2. ARG POSTGREST_VERSION=v10.1.1                                               
    3. ARG POSTGREST_FILE=postgrest-$POSTGREST_VERSION-linux-static-x64.tar.xz     
    4. RUN mkdir postgrest
    5. WORKDIR postgrest
    6. ADD https://github.com/PostgREST/postgrest/releases/download/$POSTGREST_VERSION/$POSTGREST_FILE \
    7.     .                                                                       
    8. RUN apt-get update && \
    9.     apt-get install -y libpq-dev xz-utils && \
    10.     tar xvf $POSTGREST_FILE && \
    11.     rm $POSTGREST_FILE

    之后,Docker 镜像在 /postgrest 文件夹中会包含一个名为 postgrest 的可执行文件。这里可以通过 Docker Compose 来部署:

    docker-compose.yml

    1. version: "3"
    2. services:
    3.   postgrest:
    4.     build: ./postgrest                                   
    5.     volumes:
    6.       - ./postgrest/product.conf:/etc/product.conf:ro    
    7.     ports:
    8.       - "3000:3000"
    9.     entrypoint: ["/postgrest/postgrest"]                 
    10.     command: ["/etc/product.conf"]                       
    11.     depends_on:
    12.       - postgres
    13.   postgres:
    14.     image: postgres:15-alpine
    15.     environment:
    16.       POSTGRES_PASSWORD: "root"
    17.     volumes:
    18.       - ./postgres:/docker-entrypoint-initdb.d:ro

    接下来可以执行以下命令,查询前文提到的 product 表:

    curl localhost:3000/product
    

    得到如下结果反馈:

    1. [{"id":1,"name":"Stickers pack","description":"A pack of rad stickers to display on your laptop or wherever you feel like. Show your love for Apache APISIX","price":0.49,"hero":false},
    2.  {"id":2,"name":"Lapel pin","description":"With this \"Powered by Apache APISIX\" lapel pin, support your favorite API Gateway and let everybody know about it.","price":1.49,"hero":false},
    3.  {"id":3,"name":"Tee-Shirt","description":"The classic geek product! At a conference, at home, at work, this tee-shirt will be your best friend.","price":9.99,"hero":true}]

    方案优化

    尽管上文提到的这套解决方案有效,但仍存在很大的改进空间。比如数据库用户不能更改数据、实际操作中每个人都可以访问相关数据等。这对于与产品相关的数据来说,可能不是一个大问题,但如果是医疗数据呢?

    PostgREST 的官网使用文档中提到了这一点,并明确提出:建议用户使用反向代理。

    提到反向代理,就不得不将目光转向到 API 网关行列。与 NGINX 不同,这里我选取了开源领域非常活跃的 API 网关产品 — Apache APISIX。APISIX 是一个动态、实时、高性能的 API 网关,提供了负载均衡、动态上游、灰度发布、精细化路由、限流限速、服务降级、服务熔断、身份认证、可观测性等数百项功能。

    首先,我们可以在 Docker Compose 文件中补充 APISIX 相关信息,包括 APISIX 及其依赖的存储 etcd,而 etcd 主要用于存储 APISIX 的路由、插件等配置信息。

    docker-compose.yml

    1. version: "3"
    2. services:
    3.   apisix:
    4.     image: apache/apisix:2.15.0-alpine                              
    5.     volumes:
    6.       - ./apisix/config.yml:/usr/local/apisix/conf/config.yaml:ro
    7.     ports:
    8.       - "9080:9080"
    9.     restart: always
    10.     depends_on:
    11.       - etcd
    12.       - postgrest
    13.   etcd:
    14.     image: bitnami/etcd:3.5.2                                       
    15.     environment:
    16.       ETCD_ENABLE_V2"true"
    17.       ALLOW_NONE_AUTHENTICATION: "yes"
    18.       ETCD_ADVERTISE_CLIENT_URLS: "http://0.0.0.0:2397"
    19.       ETCD_LISTEN_CLIENT_URLS: "http://0.0.0.0:2397"

    然后将 APISIX 配置为 postgrest 的代理进行调用。

    1. curl http://apisix:9080/apisix/admin/upstreams/1 -H 'X-API-KEY: 123xyz' -X PUT -d 
    2. {
    3.   "type": "roundrobin",
    4.   "nodes": {
    5.     "postgrest:3000": 1                                                             
    6.   }
    7. }'
    8. curl http://apisix:9080/apisix/admin/routes/1 -H 'X-API-KEY: 123xyz' -X PUT -d '    
    9. {
    10.   "uri": "/*",
    11.   "upstream_id": 1
    12. }

    现在再来查询端点,会得到与上文一致的返回结果。

    curl localhost:9080/product
    

    添砖加瓦

    虽然到目前为止,我们还没有添加任何实际项目,但准备工作已经全部就绪了。接下来就让我们为这个 API 添加一些其他功能,让其更安全有效,易于追踪。

    DDoS 保护

    API 作为一个连接属性的组件,必然要保证其过程中的传输安全。因此,在这里我们对 API 增加一些防护,让其免受 DDoS 攻击。APISIX 提供了非常多的官方插件,涉及鉴权、流量处理、监控等等。为了防止 DDoS,我们可以使用 APISIX 的 limit-count 插件。

    在 APISIX 中使用插件时,你可以在创建特定路由时在每个路由上设置某个插件。如果你想让某个插件在每个路由上都生效,则可以使用全局规则。如下方所示,我们希望在默认情况下可以保护每个路由,所以使用全局规则设定 limit-count 插件。

    1. curl http://apisix:9080/apisix/admin/global_rules/1 -H 'X-API-KEY: 123xyz' -X PUT -d '
    2. {
    3.   "plugins": {
    4.     "limit-count": {                 
    5.       "count": 1,                    
    6.       "time_window": 5,              
    7.       "rejected_code": 429           
    8.     }
    9.   }
    10. }'

    现在,如果我们执行太多的请求,APISIX 将会保护上游。

    curl localhost:9080/product
    
    1. <html>
    2. <head><title>429 Too Many Requests</title></head>
    3. <body>
    4. <center><h1>429 Too Many Requests</h1></center>
    5. <hr><center>openresty</center>
    6. </body>
    7. </html>

    增加鉴权

    PostgREST 还在根端提供了一个 OpenAPI endpoint。因此,我们现在有两条路由: / (控制 Open API 规范)和 /product (控制产品)。

    假设我们现在需要制定一套限制访问的操作,即不允许未经授权的人访问数据。普通用户可以访问产品端信息,而管理员用户可以访问 Open API 规范和产品端信息。

    APISIX 提供了几种身份验证方法,这些身份认证方式都可以通过插件进行实现。这里我们选取 APISIX 中最常用也是最简单的认证插件 key-auth,它依赖于 Consumer(消费者)抽象。 key-auth 插件的使用中需要一个特定的 header,这样插件就可以根据值数据进行反向查找,并找到其对应的 Consumer。

    以下代码展示了如何新建一个 Consumer:

    1. curl http://apisix:9080/apisix/admin/consumers -H 'X-API-KEY: 123xyz' -X PUT -d '    
    2. {
    3.   "username": "admin",                                                               
    4.   "plugins": {
    5.     "key-auth": {
    6.       "key": "admin"                                                                 
    7.     }
    8.   }
    9. }'

    同样的,我们需要对 Consumer user 和 Key user   进行相关操作。现在可以创建一个专用路由来配置它们,以便只有来自 admin 的请求才能通过:

    1. curl http://apisix:9080/apisix/admin/routes -H 'X-API-KEY: 123xyz' -X POST -d ' 
    2. {
    3.   "uri""/",
    4.   "upstream_id"1,
    5.   "plugins": {
    6.     "key-auth": {},                                                             
    7.     "consumer-restriction": {                                                   
    8.       "whitelist": [ "admin" ]                                                  
    9.     }
    10.   }
    11. }'

    然后使用以下命令测试一下:

    curl localhost:9080
    

    发现并没有起作用。这是因为我们没有通过 API 密钥的 header 进行身份验证。

    {"message":"Missing API key found in request"}
    

    添加 header 后再次进行测试:

    1. curl -H "apikey: user" localhost:9080
    2. {"message":"The consumer_name is forbidden."}

    发现仍然没有效果。这是因为这里 API key 为 user ,我们前边仅为 admin 也就是管理员设置了相关权限。所以如果更换为 admin ,就会如期返回 Open API 规范的相关信息。

    配置监控

    在软件系统中,总有一个被人们低估重要性的功能 —— 可观测性。在生产环境中部署了任何组件,都需要监控其运行状况。

    如今,很多服务都提供了可观测性的功能,比如 Prometheus。得益于 Prometheus 的开源属性,它被广泛应用于实践中。因此,这里我们也选用 Prometheus 进行相关数据的监控。

    为了通过图表等形式显示数据,我们也同时需要依赖于 Grafana。接下来,将这些组件添加到 Docker Compose 文件中。

    docker-compose.yml

    1. version: "3"
    2. services:
    3.   prometheus:
    4.     image: prom/prometheus:v2.40.1                                    
    5.     volumes:
    6.       - ./prometheus/prometheus.yml:/etc/prometheus/prometheus.yml    
    7.     depends_on:
    8.       - apisix
    9.   grafana:
    10.     image: grafana/grafana:8.5.15                                     
    11.     volumes:
    12.       - ./grafana/provisioning:/etc/grafana/provisioning              
    13.       - ./grafana/dashboards:/var/lib/grafana/dashboards              
    14.       - ./grafana/config/grafana.ini:/etc/grafana/grafana.ini         
    15.     ports:
    16.       - "3001:3000"
    17.     depends_on:
    18.       - prometheus

    以上操作需注意:APISIX 的默认监控方案中自带 Grafana,因此只需从 APISIX 中获取相关配置 即可。同时将默认端口从 3000 更改为 3001 是为了避免与 PostgREST 服务发生冲突。

    一旦监控基础设施到位,我们只需要指示 APISIX 以 Prometheus 期望的格式提供数据即可。可以通过配置插件和新的全局规则来实现这一目标:

    config.yaml

    1. plugin_attr:
    2.   prometheus:
    3.     export_addr:
    4.       ip: "0.0.0.0"             
    5.       port: 9091
    1. curl http://apisix:9080/apisix/admin/global_rules/2 -H 'X-API-KEY: 123xyz' -X PUT -d '
    2. {
    3.   "plugins": {
    4.     "prometheus": {}
    5.   }
    6. }'

    此时发送几个查询请求,并打开 Grafana 仪表板,可看到类似数据。如果运行较多请求,则会出现更丰富的数据仪表。

    总结

    创建一个成熟的 RESTful API 是一项巨大的投资。你可以通过 PostgREST 将数据库暴露在 CRUD API 中来快速测试一个简单的 API。但是,这样的体系结构不适用于实际生产。要想使其更具实践性,就需要在 PostgREST 前设置一个 facade、一个反向代理,或者更好的 API 网关。

    Apache APISIX 作为云原生 API 网关,提供了广泛的特性,从流量处理到认证授权和可观测性等。有了 APISIX,你就可以用较低的成本快速验证你的 API 需求。锦上添花的是,当你验证需求完成之后,还可以保留现有的 facade,并用自定义开发的 API 来替换 PostgREST。

  • 相关阅读:
    LCR 128.库存管理 I
    STM32F4使用ucosii时操作浮点数卡死的问题
    SQLite 3.39.0 发布,支持右外连接和全外连接
    threejs(4)-纹理材质高级操作
    魔兽世界开服架设服务器搭建教程
    排查 dotNET Core 程序内存暴涨的问题
    FREERTOS内容解惑与综合应用(基于STM32F103)
    LeetCode 26 删除有序数组中的重复项
    kafka 3.5 kafka服务端接收生产者发送的数据源码
    element plus 切换页面报错‘emitsOptions‘和‘insertBefore‘
  • 原文地址:https://blog.csdn.net/u012181546/article/details/128144259