• 本地搭建K8S开发环境


    有时候我们需要在本地搭建一个开发测试环境,这个环境可能会包括很多不同的软件组件,例如Kafka, PG, Redis之类的。利用Kubernetes我们可以很方便的搭建一个环境,并把这些需要的组件部署到环境上面去。这里我选择在本地安装minikube,然后快速地创建一个k8s集群。具体minikube的安装很简单,直接参考官网的介绍即可。

    下面我们部署一些常用的组件到这个K8S环境中去。

    Kafka

    首先我们先部署一个Kafka。先定义一个名为kafka的namespace,新建一个名为00-namespace.yaml文件,内容如下:

    1. apiVersion: v1
    2. kind: Namespace
    3. metadata:
    4. name: "kafka"
    5. labels:
    6. name: "kafka"

    运行kubectl apply -f 00-namespace.yaml进行部署。

    下一步就是部署一个zookeeper,创建一个名为01-zookeeper.yaml,内容如下:

    1. apiVersion: v1
    2. kind: Service
    3. metadata:
    4. labels:
    5. app: zookeeper-service
    6. name: zookeeper-service
    7. namespace: kafka
    8. spec:
    9. type: NodePort
    10. ports:
    11. - name: zookeeper-port
    12. port: 2181
    13. nodePort: 30181
    14. targetPort: 2181
    15. selector:
    16. app: zookeeper
    17. ---
    18. apiVersion: apps/v1
    19. kind: Deployment
    20. metadata:
    21. labels:
    22. app: zookeeper
    23. name: zookeeper
    24. namespace: kafka
    25. spec:
    26. replicas: 1
    27. selector:
    28. matchLabels:
    29. app: zookeeper
    30. template:
    31. metadata:
    32. labels:
    33. app: zookeeper
    34. spec:
    35. containers:
    36. - image: wurstmeister/zookeeper
    37. imagePullPolicy: IfNotPresent
    38. name: zookeeper
    39. ports:
    40. - containerPort: 2181

    运行kubectl apply -f 01-zookeeper.yaml进行部署

    运行kubectl get service -n kafka,可以查看刚才成功创建的zookeeper-service的状态

    之后就可以部署kafka了,创建一个名为02-kafka.yaml,内容如下,其中的KAFKA_ZOOKEEPER_CONNECT的环境变量设置为刚才创建的zookeeper-service的IP和端口:

    1. apiVersion: v1
    2. kind: Service
    3. metadata:
    4. labels:
    5. app: kafka-broker
    6. name: kafka-service
    7. namespace: kafka
    8. spec:
    9. ports:
    10. - port: 9092
    11. selector:
    12. app: kafka-broker
    13. ---
    14. apiVersion: apps/v1
    15. kind: Deployment
    16. metadata:
    17. labels:
    18. app: kafka-broker
    19. name: kafka-broker
    20. namespace: kafka
    21. spec:
    22. replicas: 1
    23. selector:
    24. matchLabels:
    25. app: kafka-broker
    26. template:
    27. metadata:
    28. labels:
    29. app: kafka-broker
    30. spec:
    31. hostname: kafka-broker
    32. containers:
    33. - env:
    34. - name: KAFKA_BROKER_ID
    35. value: "1"
    36. - name: KAFKA_ZOOKEEPER_CONNECT
    37. value: $(ZOOKEEPER_SERVICE_SERVICE_HOST):$(ZOOKEEPER_SERVICE_SERVICE_PORT)
    38. - name: KAFKA_LISTENERS
    39. value: PLAINTEXT://:9092
    40. - name: KAFKA_ADVERTISED_LISTENERS
    41. value: PLAINTEXT://kafka-broker:9092
    42. image: wurstmeister/kafka
    43. imagePullPolicy: IfNotPresent
    44. name: kafka-broker
    45. ports:
    46. - containerPort: 9092

    运行kubectl apply -f 02-kafka.yaml进行部署。

    运行kubectl get pods -n kafka,可以看到kafka和zookeeper两个pod都能正常运行。在以上的kafka的yaml文件中,我们配置了一个kafka_advertised_listeners,里面指定了kafka-broker:9092,这个是用于kafka和zookeeper之间互相通信的。我们需要在本地的/etc/hosts里面加上一条记录127.0.0.1 kafka-broker

    下面我们可以测试一下kafka是否能正常工作,运行以下命令把kafka pod的9092端口暴露出来,使得可以通过访问localhost:9092来访问kafka

    kubectl port-forward kafka-broker-5c55f544d4-hrgnv 9092 -n kafka

    在本地安装一个名为kafkacat的工具,然后运行以下命令,往test的topic发布一条消息:

    echo "hello world!" | kafkacat -P -b localhost:9092 -t test

    打开另一个终端,运行以下命令,可以成功接收test主题的消息:

    kafkacat -C -b localhost:9092 -t test

    由此可见我们已经成功把kafka部署到k8s了

    Redis

    修改一下刚才的00-namespace.yaml文件,增加一个redis的命名空间,内容如下:

    1. apiVersion: v1
    2. kind: Namespace
    3. metadata:
    4. name: "kafka"
    5. labels:
    6. name: "kafka"
    7. ---
    8. apiVersion: v1
    9. kind: Namespace
    10. metadata:
    11. name: "redis"
    12. labels:
    13. name: "redis"

    和Kafka类似,创建一个名为03-redis.yaml的文件,内容如下:

    1. apiVersion: v1
    2. kind: Service
    3. metadata:
    4. labels:
    5. app: redis-master
    6. name: redis-service
    7. namespace: redis
    8. spec:
    9. ports:
    10. - port: 6379
    11. selector:
    12. app: redis-master
    13. ---
    14. apiVersion: apps/v1
    15. kind: Deployment
    16. metadata:
    17. labels:
    18. app: redis-master
    19. name: redis-master
    20. namespace: redis
    21. spec:
    22. replicas: 1
    23. selector:
    24. matchLabels:
    25. app: redis-master
    26. template:
    27. metadata:
    28. labels:
    29. app: redis-master
    30. spec:
    31. hostname: redis-master
    32. containers:
    33. - env:
    34. - name: MASTER
    35. value: "true"
    36. image: redis:5.0.4
    37. imagePullPolicy: IfNotPresent
    38. name: redis-master
    39. ports:
    40. - containerPort: 6379
    41. resources:
    42. limits:
    43. cpu: "0.1"

    运行kubectl apply -f 03-redis.yaml进行部署

    部署之后,我们可以运行指令kubectl exec -it --namespace=redis redis-master-5989578dfd-gnnfh -- redis-cli进入redis pod,然后可以输入指令set "product" "test"设置一个key为product,value为test的键值对,然后再输入get "product",可以正确的获取到value test

    Postgresql

    接下来是部署PG数据库,考虑到数据库是一个有状态的应用,当数据库的Pod出现问题失败时,K8S会自动调度一个新的Pod,但是我们不能丢失原有的数据,因此需要把数据库的文件存储在一个host path类型的volume

    因为minikube本身也是作为一个docker镜像运行的,因此需要把本地的文件目录mount到minikube里面,这样才能通过hostpath的方式来使用,例如以下的命令:

    minikube start --mount --mount-string="/home/roy/data/k8s_pg:/minikubeContainer/pg_data"

    建立一个名为04-postgresql.yaml文件,内容如下:

    1. apiVersion: v1
    2. kind: Service
    3. metadata:
    4. name: postgresql-service
    5. labels:
    6. app: postgresql
    7. namespace: postgresql
    8. spec:
    9. ports:
    10. - port: 5432
    11. targetPort: pg
    12. selector:
    13. app: postgresql
    14. tier: pg
    15. ---
    16. apiVersion: apps/v1
    17. kind: Deployment
    18. metadata:
    19. name: postgresql
    20. labels:
    21. app: postgresql
    22. namespace: postgresql
    23. spec:
    24. selector:
    25. matchLabels:
    26. app: postgresql
    27. tier: pg
    28. strategy:
    29. type: Recreate
    30. template:
    31. metadata:
    32. labels:
    33. app: postgresql
    34. tier: pg
    35. spec:
    36. volumes:
    37. - name: pgvolume
    38. hostPath:
    39. path: /data
    40. type: Directory
    41. containers:
    42. - image: postgres:12
    43. name: pg12
    44. env:
    45. - name: POSTGRES_DB
    46. valueFrom:
    47. configMapKeyRef:
    48. name: cv-configmap
    49. key: POSTGRES_DB
    50. - name: POSTGRES_USER
    51. valueFrom:
    52. secretKeyRef:
    53. name: cv-secret
    54. key: POSTGRES_USER
    55. optional: false
    56. - name: POSTGRES_PASSWORD
    57. valueFrom:
    58. secretKeyRef:
    59. name: cv-secret
    60. key: POSTGRES_PASSWORD
    61. optional: false
    62. ports:
    63. - containerPort: 5432
    64. name: pg
    65. volumeMounts:
    66. - name: pgvolume
    67. mountPath: /var/lib/postgresql/data

    在这里用到了configmap和secretmap来配置Postgres的环境变量。我们可以在一个kustomization.yaml文件里面来创建这些环境变量,并且把之前创建的这些deployments组合在一起,这样就不用每次都分别创建deployment了。内容如下:

    1. configMapGenerator:
    2. - name: cv-configmap
    3. envs:
    4. - cv.env
    5. namespace: postgresql
    6. secretGenerator:
    7. - name: cv-secret
    8. literals:
    9. - POSTGRES_USER=postgres
    10. - POSTGRES_PASSWORD=postgres
    11. namespace: postgresql
    12. resources:
    13. - 00-namespace.yaml
    14. - 01-zookeeper.yaml
    15. - 02-kafka.yaml
    16. - 03-redis.yaml
    17. - 04-postgresql.yaml

    我们可以用kubectl delete deployment把之前创建的deployment删掉,然后执行kubectl apply -k kustomizationdirectory/的命令来进行部署。

  • 相关阅读:
    最灵活的PDF:Docotic.Pdf 8.7.13797 Crack
    UE5笔记【零】快捷键
    Linux之动静态库
    Red Hat Enterprise Linux RHEL 8.6 下载安装
    (原创)【B4A】一步一步入门09:xCustomListView,加强版列表、双行带图片、复选框按钮等自定义列表项(控件篇05)
    下列对“一带一路”倡议的认识中,正确的有()。 A 顺应时代潮流 B 适应发展规律 C 符合各国人民利益 D 具有广阔前景
    SpringEvent事件监听、事件驱动,观察者模式
    react 组件间的通信
    AI-“国外一开源,国内就创新”!
    【C进阶】之宏定义的扩展
  • 原文地址:https://blog.csdn.net/gzroy/article/details/127947400