• 【Docker与微服务】高级篇


    1 Docker复杂安装详说

    1.1 安装msql主从复制

    1.1.1 主从复制原理

    默认你懂

    1.1.2 主从搭建步骤

    1.1.2.1 新建主服务器容器实例3307
    1. docker run -p 3307:3306 --name mysql-master \
    2. -v /mydata/mysql-master/log:/var/log/mysql \
    3. -v /mydata/mysql-master/data:/var/lib/mysql \
    4. -v /mydata/mysql-master/conf:/etc/mysql \
    5. -e MYSQL_ROOT_PASSWORD=root \
    6. -d mysql:5.7
    1.1.2.2 进入/mydata/mysql-master/conf目录下新建my.cnf

    vim my.cnf

    1. [mysqld]
    2. ## 设置server_id,同一局域网中需要唯一
    3. server_id=101
    4. ## 指定不需要同步的数据库名称
    5. binlog-ignore-db=mysql
    6. ## 开启二进制日志功能
    7. log-bin=mall-mysql-bin
    8. ## 设置二进制日志使用内存大小(事务)
    9. binlog_cache_size=1M
    10. ## 设置使用的二进制日志格式(mixed,statement,row)
    11. binlog_format=mixed
    12. ## 二进制日志过期清理时间。默认值为0,表示不自动清理。
    13. expire_logs_days=7
    14. ## 跳过主从复制中遇到的所有错误或指定类型的错误,避免slave端复制中断。
    15. ## 如:1062错误是指一些主键重复,1032错误是因为主从数据库数据不一致
    16. slave_skip_errors=1062
    1.1.2.3 修改完配置后重启master实例

    docker restart mysql-master

    1.1.2.4 进入mysql-master容器

    docker exec -it mysql-master /bin/bash

    mysql -uroot -proot

    1.1.2.5 master容器实例内创建数据同步用户

    CREATE USER 'slave'@'%' IDENTIFIED BY '123456';

    GRANT REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'slave'@'%';

    1.1.2.6 新建从服务器容器实例3308
    1. docker run -p 3308:3306 --name mysql-slave \
    2. -v /mydata/mysql-slave/log:/var/log/mysql \
    3. -v /mydata/mysql-slave/data:/var/lib/mysql \
    4. -v /mydata/mysql-slave/conf:/etc/mysql \
    5. -e MYSQL_ROOT_PASSWORD=root \
    6. -d mysql:5.7
    1.1.2.7 进入/mydata/mysql-slave/conf目录下新建my.cnf

    vim my.cnf

    1. [mysqld]
    2. ## 设置server_id,同一局域网中需要唯一
    3. server_id=102
    4. ## 指定不需要同步的数据库名称
    5. binlog-ignore-db=mysql
    6. ## 开启二进制日志功能,以备Slave作为其它数据库实例的Master时使用
    7. log-bin=mall-mysql-slave1-bin
    8. ## 设置二进制日志使用内存大小(事务)
    9. binlog_cache_size=1M
    10. ## 设置使用的二进制日志格式(mixed,statement,row)
    11. binlog_format=mixed
    12. ## 二进制日志过期清理时间。默认值为0,表示不自动清理。
    13. expire_logs_days=7
    14. ## 跳过主从复制中遇到的所有错误或指定类型的错误,避免slave端复制中断。
    15. ## 如:1062错误是指一些主键重复,1032错误是因为主从数据库数据不一致
    16. slave_skip_errors=1062
    17. ## relay_log配置中继日志
    18. relay_log=mall-mysql-relay-bin
    19. ## log_slave_updates表示slave将复制事件写进自己的二进制日志
    20. log_slave_updates=1
    21. ## slave设置为只读(具有super权限的用户除外)
    22. read_only=1
    1.1.2.8 修改完配置后重启slave实例

    docker restart mysql-slave

    1.1.2.9 在主数据库中查看主从同步状态

    show master status;

    1.1.2.10 进入mysql-slave容器

    docker exec -it mysql-slave /bin/bash

    mysql -uroot -proot

    1.1.2.11 在从数据库中配置主从复制
    1. change master to master_host='宿主机ip',
    2. master_user='slave', master_password='123456',
    3. master_port=3307, master_log_file='mall-mysql-bin.000001',
    4. master_log_pos=617, master_connect_retry=30;

    主从复制命令参数说明

    master_host:主数据库的IP地址;

    master_port:主数据库的运行端口;

    master_user:在主数据库创建的用于同步数据的用户账号;

    master_password:在主数据库创建的用于同步数据的用户密码;

    master_log_file:指定从数据库要复制数据的日志文件,通过查看主数据的状态,获取File参数;

    master_log_pos:指定从数据库从哪个位置开始复制数据,通过查看主数据的状态,获取Position参数;

    master_connect_retry:连接失败重试的时间间隔,单位为秒。

    1.1.2.12 在从数据库中查看主从同步状态

    show slave status \G;

    1.1.2.13 在从数据库中开启主从同步

    1.1.2.14 查看从数据库状态发现已经同步

    1.1.2.15 主从复制测试

    主机新建库-使用库-新建表-插入数据,ok

    从机使用库-查看记录,ok

    1.2 安装redis集群(大厂面试题第4季-分布式存储案例真题)

    cluster(集群)模式-docker版哈希槽分区进行亿级数据存储

    1.2.1 面试题

    1~2亿条数据需要缓存,请问如何设计这个存储案例

    回答:单机单台100%不可能,肯定是分布式存储,用redis如何落地?

    上述问题阿里P6~P7工程案例和场景设计类必考题目, 一般业界有3种解决方案:

    1.2.1.1 哈希取余分区(小厂用)

    2亿条记录就是2亿个k,v,我们单机不行必须要分布式多机,假设有3台机器构成一个集群,用户每次读写操作都是根据公式:

    hash(key) % N个机器台数,计算出哈希值,用来决定数据映射到哪一个节点上。

    优点:

    简单粗暴,直接有效,只需要预估好数据规划好节点,例如3台、8台、10台,就能保证一段时间的数据支撑。使用Hash算法让固定的一部分请求落到同一台服务器上,这样每台服务器固定处理一部分请求(并维护这些请求的信息),起到负载均衡+分而治之的作用。

    缺点:

    原来规划好的节点,进行扩容或者缩容就比较麻烦了额,不管扩缩,每次数据变动导致节点有变动,映射关系需要重新进行计算,在服务器个数固定不变时没有问题,如果需要弹性扩容或故障停机的情况下,原来的取模公式就会发生变化:Hash(key)/3会变成Hash(key) /?。此时地址经过取余运算的结果将发生很大变化,根据公式获取的服务器也会变得不可控。

    某个redis机器宕机了,由于台数数量变化,会导致hash取余全部数据重新洗牌。

    1.2.1.2 一致性哈希算法分区(中厂用)

    是什么?

    一致性Hash算法背景:

    一致性哈希算法在1997年由麻省理工学院中提出的,设计目标是为了解决分布式缓存数据变动和映射问题,某个机器宕机了,分母数量改变了,自然取余数不OK了。

    能干嘛?

    提出一致性Hash解决方案。 目的是当服务器个数发生变动时, 尽量减少影响客户端到服务器的映射关系

    3大步骤:

    1、算法构建一致性哈希环

    一致性哈希环

        一致性哈希算法必然有个hash函数并按照算法产生hash值,这个算法的所有可能哈希值会构成一个全量集,这个集合可以成为一个hash空间[0,2^32-1],这个是一个线性空间,但是在算法中,我们通过适当的逻辑控制将它首尾相连(0 = 2^32),这样让它逻辑上形成了一个环形空间。

       它也是按照使用取模的方法,前面笔记介绍的节点取模法是对节点(服务器)的数量进行取模。而一致性Hash算法是对2^32取模,简单来说,一致性Hash算法将整个哈希值空间组织成一个虚拟的圆环,如假设某哈希函数H的值空间为0-2^32-1(即哈希值是一个32位无符号整形),整个哈希环如下图:整个空间按顺时针方向组织,圆环的正上方的点代表0,0点右侧的第一个点代表1,以此类推,2、3、4、……直到2^32-1,也就是说0点左侧的第一个点代表2^32-1, 0和2^32-1在零点钟方向重合,我们把这个由2^32个点组成的圆环称为Hash环。

    2、服务器IP节点映射

    节点映射

    将集群中各个IP节点映射到环上的某一个位置。

    将各个服务器使用Hash进行一个哈希,具体可以选择服务器的IP或主机名作为关键字进行哈希,这样每台机器就能确定其在哈希环上的位置。假如4个节点NodeA、B、C、D,经过IP地址的哈希函数计算(hash(ip)),使用IP地址哈希后在环空间的位置如下:  

    3、key落到服务器的落键规则

    当我们需要存储一个kv键值对时,首先计算key的hash值,hash(key),将这个key使用相同的函数Hash计算出哈希值并确定此数据在环上的位置,从此位置沿环顺时针“行走”,第一台遇到的服务器就是其应该定位到的服务器,并将该键值对存储在该节点上。

    如我们有Object A、Object B、Object C、Object D四个数据对象,经过哈希计算后,在环空间上的位置如下:根据一致性Hash算法,数据A会被定为到Node A上,B被定为到Node B上,C被定为到Node C上,D被定为到Node D上。

    优点:

    一致性哈希算法的容错性

    容错性

    假设Node C宕机,可以看到此时对象A、B、D不会受到影响,只有C对象被重定位到Node D。一般的,在一致性Hash算法中,如果一台服务器不可用,则受影响的数据仅仅是此服务器到其环空间中前一台服务器(即沿着逆时针方向行走遇到的第一台服务器)之间数据,其它不会受到影响。简单说,就是C挂了,受到影响的只是B、C之间的数据,并且这些数据会转移到D进行存储。

    一致性哈希算法的扩展性

    扩展性

    数据量增加了,需要增加一台节点NodeX,X的位置在A和B之间,那收到影响的也就是A到X之间的数据,重新把A到X的数据录入到X上即可,不会导致hash取余全部数据重新洗牌。

    缺点:

    一致性哈希算法的数据倾斜问题

    Hash环的数据倾斜问题

    一致性Hash算法在服务节点太少时,容易因为节点分布不均匀而造成数据倾斜(被缓存的对象大部分集中缓存在某一台服务器上)问题,例如系统中只有两台服务器:

    小总结

    为了在节点数目发生改变时尽可能少的迁移数据

    将所有的存储节点排列在收尾相接的Hash环上,每个key在计算Hash后会顺时针找到临近的存储节点存放。而当有节点加入或退出时仅影响该节点在Hash环上顺时针相邻的后续节点。  

    优点

    加入和删除节点只影响哈希环中顺时针方向的相邻的节点,对其他节点无影响。

    缺点 

    数据的分布和节点的位置有关,因为这些节点不是均匀的分布在哈希环上的,所以数据在进行存储时达不到均匀分布的效果。

    1.2.1.3 哈希槽分区(大厂用)

    是什么?

    1 为什么出现?

    因为一致性哈希算法存在数据倾斜的问题

    哈希槽实质就是一个数组,数组[0,2^14 -1]形成hash slot空间。

    2 能干什么

    解决均匀分配的问题,在数据和节点之间又加入了一层,把这层称为哈希槽(slot),用于管理数据和节点之间的关系,现在就相当于节点上放的是槽,槽里放的是数据。

    槽解决的是粒度问题,相当于把粒度变大了,这样便于数据移动。

    哈希解决的是映射问题,使用key的哈希值来计算所在的槽,便于数据分配。

    3 多少个hash槽

    一个集群只能有16384个槽,编号0-16383(0-2^14-1)。这些槽会分配给集群中的所有主节点,分配策略没有要求。可以指定哪些编号的槽分配给哪个主节点。集群会记录节点和槽的对应关系。解决了节点和槽的关系后,接下来就需要对key求哈希值,然后对16384取余,余数是几key就落入对应的槽里。slot = CRC16(key) % 16384。以槽为单位移动数据,因为槽的数目是固定的,处理起来比较容易,这样数据移动问题就解决了。

    哈希槽计算

    Redis 集群中内置了 16384 个哈希槽,redis 会根据节点数量大致均等的将哈希槽映射到不同的节点。当需要在 Redis 集群中放置一个 key-value时,redis 先对 key 使用 crc16 算法算出一个结果,然后把结果对 16384 求余数,这样每个 key 都会对应一个编号在 0-16383 之间的哈希槽,也就是映射到某个节点上。如下代码,key之A 、B在Node2, key之C落在Node3上

    1.2.2 3主3从redis集群扩缩容配置案例架构说明

     

    1.2.3 开打步骤

    1.2.3.1 3主3从redis集群配置

    关闭防火墙+启动docker后台服务

    systemctl start docker

    新建6个docker容器redis实例

    docker run -d --name redis-node-1 --net host --privileged=true -v /data/redis/share/redis-node-1:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6381

    docker run -d --name redis-node-2 --net host --privileged=true -v /data/redis/share/redis-node-2:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6382

    docker run -d --name redis-node-3 --net host --privileged=true -v /data/redis/share/redis-node-3:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6383

    docker run -d --name redis-node-4 --net host --privileged=true -v /data/redis/share/redis-node-4:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6384

    docker run -d --name redis-node-5 --net host --privileged=true -v /data/redis/share/redis-node-5:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6385

    docker run -d --name redis-node-6 --net host --privileged=true -v /data/redis/share/redis-node-6:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6386

    如果运行成功,效果如下:

    命令分步解释:

    docker run

    创建并运行docker容器实例

    --name redis-node-6

    容器名字

    --net host

    使用宿主机的IP和端口,默认

    --privileged=true

    获取宿主机root用户权限

    -v /data/redis/share/redis-node-6:/data

    容器卷,宿主机地址:docker内部地址

    redis:6.0.8

    redis镜像和版本号

    --cluster-enabled yes

    开启redis集群

    --appendonly yes

    开启持久化

    --port 6386

    redis端口号

    进入容器redis-node-1并为6台机器构建集群关系

    进入容器:docker exec -it redis-node-1 /bin/bash

    构建主从关系:

    //注意,进入docker容器后才能执行以下命令,且注意自己的真实IP地址

    redis-cli --cluster create 192.168.111.147:6381 192.168.111.147:6382 192.168.111.147:6383 192.168.111.147:6384 192.168.111.147:6385 192.168.111.147:6386 --cluster-replicas 1

    --cluster-replicas 1 表示为每个master创建一个slave节点

    一切OK的话,3主3从搞定

    链接进入6381作为切入点,查看集群状态

    链接进入6381作为切入点,查看节点状态

    cluster info

    cluster nodes

    1.2.3.2 主从容错切换迁移案例

    数据读写存储

    a) 启动6机构成的集群并通过exec进入

    docker exec -it redis-node-1 /bin/bash

    b) 对6381新增两个key

    c) 防止路由失效加参数-c并新增两个key

    加入参数-c,优化路由

    d) 查看集群信息

    redis-cli --cluster check 192.168.111.147:6381

    容错切换迁移

    a) 主6381和从机切换,先停止主机6381

    docker stop redis-node-1

    6381主机停了,对应的真实从机上位

    6381作为1号主机分配的从机以实际情况为准,具体是几号机器就是几号

    b) 再次查看集群信息

    6381宕机了,6385上位成为了新的master。

    备注:本次脑图笔记6381为主下面挂从6385。

    每次案例下面挂的从机以实际情况为准,具体是几号机器就是几号

    c) 先还原之前的3主3从

    中间需要等待一会儿,docker集群重新响应 

    先启6381

    docker start redis-node-1

    再停6385

    docker stop redis-node-5

    再启6385

    docker start redis-node-5

    主从机器分匹配情况以实际情况为准

    d) 查看集群状态

    redis-cli --cluster check 自己IP:6381

    1.2.3.3 主从扩容案例

    新建6387、6388两个节点+新建后启动+查看是否8节点

    docker run -d --name redis-node-7 --net host --privileged=true -v /data/redis/share/redis-node-7:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6387

    docker run -d --name redis-node-8 --net host --privileged=true -v /data/redis/share/redis-node-8:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6388

    docker ps

    进入6387容器实例内部

    docker exec -it redis-node-7 /bin/bash

    将新增的6387节点(空槽号)作为master节点加入原集群

    将新增的6387作为master节点加入集群

    redis-cli --cluster add-node 自己实际IP地址:6387 自己实际IP地址:6381

    6387 就是将要作为master新增节点

    6381 就是原来集群节点里面的领路人,相当于6387拜拜6381的码头从而找到组织加入集群

    检查集群情况第1次

    redis-cli --cluster check 真实ip地址:6381

    重新分派槽号

    命令:redis-cli --cluster reshard IP地址:端口号

    redis-cli --cluster reshard 192.168.111.147:6381

    检查集群情况第2次

    ​​​​​​​​​​​​​​​​​​​​​redis-cli --cluster check 真实ip地址:6381

    ​​​​​​​槽号分派说明

    为什么6387是3个新的区间,以前的还是连续?

    重新分配成本太高,所以前3家各自匀出来一部分,从6381/6382/6383三个旧节点分别匀出1364个坑位给新节点6387

    为主节点6387分配从节点6388

    命令:redis-cli --cluster add-node ip:新slave端口 ip:新master端口 --cluster-slave --cluster-master-id 新主机节点ID

    redis-cli --cluster add-node 192.168.111.147:6388 192.168.111.147:6387 --cluster-slave --cluster-master-id e4781f644d4a4e4d4b4d107157b9ba8144631451-------这个是6387的编号,按照自己实际情况

    检查集群情况第3次

    redis-cli --cluster check 192.168.111.147:6382

    1.2.3.4 主从缩容案例

    目的:6387和6388下线

    检查集群情况1获得6388的节点ID

    redis-cli --cluster check 192.168.111.147:6382

    ​​​​​​​将6388删除 从集群中将4号从节点6388删除

    命令:redis-cli --cluster del-node ip:从机端口 从机6388节点ID

    redis-cli --cluster del-node

    192.168.111.147:6388 5d149074b7e57b802287d1797a874ed7a1a284a8

    redis-cli --cluster check 192.168.111.147:6382

    检查一下发现,6388被删除了,只剩下7台机器了。

    ​​​​​​​将6387的槽号清空,重新分配,本例将清出来的槽号都给6381

    redis-cli --cluster reshard 192.168.111.147:6381

    ​​​​​​​检查集群情况第二次

    redis-cli --cluster check 192.168.111.147:6381

    4096个槽位都指给6381,它变成了8192个槽位,相当于全部都给6381了。不然分配给三个master的话要输入3次。

    ​​​​​​​将6387删除

    命令:redis-cli --cluster del-node ip:端口 6387节点ID

    redis-cli --cluster del-node

    192.168.111.147:6387 e4781f644d4a4e4d4b4d107157b9ba8144631451

    ​​​​​​​检查集群情况第三次

    redis-cli --cluster check 192.168.111.147:6381

    2 DockerFile解析

    2.1 是什么

    ​​​​​​​Dockerfile是用来构建Docker镜像的文本文件,是由一条条构建镜像所需的指令和参数构成的脚本。(可以理解为类似Linux的shell脚本)

    概述

    官网

    https://docs.docker.com/engine/reference/builder/

    构建三步骤

    编写Dockerfile文件

    docker build命令构建镜像

    docker run依镜像运行容器实例

    2.2 DockerFile构建过程解析

    2.2.1 Dockerfile内容基础知识

    1:每条保留字指令都必须为大写字母且后面要跟随至少一个参数

    2:指令按照从上到下,顺序执行

    3:#表示注释

    4:每条指令都会创建一个新的镜像层并对镜像进行提交

    2.2.2 Docker执行Dockerfile的大致流程

    (1)docker从基础镜像运行一个容器

    (2)执行一条指令并对容器作出修改

    (3)执行类似docker commit的操作提交一个新的镜像层

    (4)docker再基于刚提交的镜像运行一个新容器

    (5)执行dockerfile中的下一条指令直到所有指令都执行完成

    2.2.3 小总结

    从应用软件的角度来看,Dockerfile、Docker镜像与Docker容器分别代表软件的三个不同阶段,

    *  Dockerfile是软件的原材料

    *  Docker镜像是软件的交付品

    *  Docker容器则可以认为是软件镜像的运行态,也即依照镜像运行的容器实例

    Dockerfile面向开发,Docker镜像成为交付标准,Docker容器则涉及部署与运维,三者缺一不可,合力充当Docker体系的基石。

    1 Dockerfile,需要定义一个Dockerfile,Dockerfile定义了进程需要的一切东西。Dockerfile涉及的内容包括执行代码或者是文件、环境变量、依赖包、运行时环境、动态链接库、操作系统的发行版、服务进程和内核进程(当应用进程需要和系统服务和内核进程打交道,这时需要考虑如何设计namespace的权限控制)等等;

    2 Docker镜像,在用Dockerfile定义一个文件之后,docker build时会产生一个Docker镜像,当运行 Docker镜像时会真正开始提供服务;

    3 Docker容器,容器是直接提供服务的。

    2.3 DockerFile常用保留字指令

    参考tomcat8的dockerfile入门

    https://github.com/docker-library/tomcat

    FROM

    基础镜像,当前新镜像是基于哪个镜像的,指定一个已经存在的镜像作为模板,第一条必须是FROM

    MAINTAINER

    镜像维护者的姓名和邮箱地址

    RUN

    容器构建(build)时需要运行的命令

    两种格式:

    1、shell格式

    RUN yum -y install vim

    2、exec格式

    RUN是在 docker build时运行

    EXPOSE

    当前容器对外暴露出的端口

    WORKDIR

    指定在创建容器后,终端默认登陆进来的工作目录,一个落脚点

    USER

    指定该镜像以什么样的用户去执行,如果都不指定,默认是root

    ENV

    用来在构建镜像过程中设置环境变量

    ENV MY_PATH /usr/mytest

    这个环境变量可以在后续的任何RUN指令中使用,这就如同在命令前面指定了环境变量前缀一样;

    也可以在其它指令中直接使用这些环境变量,比如:WORKDIR $MY_PATH

    ADD

    将宿主机目录下的文件拷贝进镜像且会自动处理URL和解压tar压缩包(COPY+解压)

    COPY

    类似ADD,拷贝文件和目录到镜像中。 将从构建上下文目录中 <源路径> 的文件/目录复制到新的一层的镜像内的 <目标路径> 位置

    COPY src dest

    COPY ["src", "dest"]

    :源文件或者源目录

    :容器内的指定路径,该路径不用事先建好,路径不存在的话,会自动创建。

    VOLUME

    容器数据卷,用于数据保存和持久化工作

    CMD

    1、指定容器启动后的要干的事情

    2、注意

    Dockerfile 中可以有多个 CMD 指令,但只有最后一个生效,CMD 会被 docker run 之后的参数替换

    参考官网Tomcat的dockerfile演示讲解:

    官网最后一行命令

    ​​​​​​​我们演示自己的覆盖操作

    docker run后加/bin/bash参数后相当于

    3、它和前面RUN命令的区别

    CMD是在docker run 时运行。

    RUN是在 docker build 时运行。

    ENTRYPOINT

    也是用来指定一个容器启动时要运行的命令

    类似于 CMD 指令,但是ENTRYPOINT不会被docker run后面的命令覆盖, 而且这些命令行参数会被当作参数送给 ENTRYPOINT 指令指定的程序

    命令格式和案例说明

    命令格式:

    ENTRYPOINT可以和CMD一起用,一般是变参才会使用 CMD ,这里的 CMD 等于是在给 ENTRYPOINT 传参。

    当指定了ENTRYPOINT后,CMD的含义就发生了变化,不再是直接运行其命令而是将CMD的内容作为参数传递给ENTRYPOINT指令,他两个组合会变成

    案例如下:假设已通过 Dockerfile 构建了 nginx:test 镜像: 

    优点

    在执行docker run的时候可以指定 ENTRYPOINT 运行所需的参数。

    注意

    如果 Dockerfile 中如果存在多个 ENTRYPOINT 指令,仅最后一个生效。

    小总结

    2.4 案例

    2.4.1 自定义镜像mycentosjava8

    2.4.1.1 要求

    Centos7镜像具备vim+ifconfig+jdk8

    JDK的下载镜像地址

    官网:

    下载地址:https://www.oracle.com/java/technologies/downloads/#java8

    国内镜像:​​​​​​​https://mirrors.yangxingzhen.com/jdk/

    2.4.1.2 编写

    ​​​​​​​准备编写Dockerfile文件(D必须是大写字母)

    1. #继承镜像
    2. FROM centos
    3. #指定作者和邮箱
    4. MAINTAINER zzyy
    5. #指定在创建容器后,终端默认登陆的进来工作目录,一个落脚点
    6. ENV MYPATH /usr/local
    7. WORKDIR $MYPATH
    8. #安装vim编辑器
    9. RUN yum -y install vim
    10. #安装ifconfig命令查看网络IP
    11. RUN yum -y install net-tools
    12. #安装java8及lib库
    13. RUN yum -y install glibc.i686
    14. RUN mkdir /usr/local/java
    15. #ADD 是相对路径jar,把jdk-8u171-linux-x64.tar.gz添加到容器中,安装包必须要和Dockerfile文件在同一位置
    16. ADD jdk-8u171-linux-x64.tar.gz /usr/local/java/
    17. #配置java环境变量
    18. ENV JAVA_HOME /usr/local/java/jdk1.8.0_171
    19. ENV JRE_HOME $JAVA_HOME/jre
    20. ENV CLASSPATH $JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib:$CLASSPATH
    21. ENV PATH $JAVA_HOME/bin:$PATH
    22. EXPOSE 80
    23. CMD echo $MYPATH
    24. CMD echo "success--------------ok"
    25. CMD /bin/bash
    2.4.1.3 构建

    ​​​​​​​docker build -t 新镜像名字:TAG .

    docker build -t centosjava8:1.5 .

    ​​​​​​​注意,上面TAG后面有个空格,有个点

    2.4.1.4 运行

    ​​​​​​​docker run -it 新镜像名字:TAG

    docker run -it centosjava8:1.5 /bin/bash

    2.4.1.1 再体会下UnionFS(联合文件系统)

    UnionFS(联合文件系统):Union文件系统(UnionFS)是一种分层、轻量级并且高性能的文件系统,它支持对文件系统的修改作为一次提交来一层层的叠加,同时可以将不同目录挂载到同一个虚拟文件系统下(unite several directories into a single virtual filesystem)。Union 文件系统是 Docker 镜像的基础。镜像可以通过分层来进行继承,基于基础镜像(没有父镜像),可以制作各种具体的应用镜像。

    特性:一次同时加载多个文件系统,但从外面看起来,只能看到一个文件系统,联合加载会把各层文件系统叠加起来,这样最终的文件系统会包含所有底层的文件和目录 

    2.4.2 虚悬镜像

    2.4.2.1 是什么

    仓库名、标签都是的镜像,俗称dangling image

    Dockerfile写一个

    1 vim Dockerfile

    1. from ubuntu
    2. CMD echo 'action is success'

    2 docker build .

    2.4.2.2 查看

    docker image ls -f dangling=true

    命令结果

    2.4.2.3 删除

    docker image prune

    虚悬镜像已经失去存在价值,可以删除

    2.4.3 家庭作业-自定义镜像myubuntu

    2.4.3.1 编写

    ​​​​​​​准备编写DockerFile文件

    1. FROM ubuntu
    2. MAINTAINER zzyy
    3. ENV MYPATH /usr/local
    4. WORKDIR $MYPATH
    5. RUN apt-get update
    6. RUN apt-get install net-tools
    7. #RUN apt-get install -y iproute2
    8. #RUN apt-get install -y inetutils-ping
    9. EXPOSE 80
    10. CMD echo $MYPATH
    11. CMD echo "install inconfig cmd into ubuntu success--------------ok"
    12. CMD /bin/bash
    2.4.3.2 构建

    ​​​​​​​docker build -t 新镜像名字:TAG .

    2.4.3.3 运行

    ​​​​​​​docker run -it 新镜像名字:TAG

    2.5 小总结

    3 Docker微服务实战

    3.1 通过IDEA新建一个普通微服务模块

    3.1.1 建Module 

    ​​​​​​​docker_boot

    3.1.2 改POM

    1. "1.0" encoding="UTF-8"?>
    2. <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
    3. xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd">
    4. <modelVersion>4.0.0modelVersion>
    5. <parent>
    6. <groupId>org.springframework.bootgroupId>
    7. <artifactId>spring-boot-starter-parentartifactId>
    8. <version>2.5.6version>
    9. <relativePath/>
    10. parent>
    11. <groupId>com.atguigu.dockergroupId>
    12. <artifactId>docker_bootartifactId>
    13. <version>0.0.1-SNAPSHOTversion>
    14. <properties>
    15. <project.build.sourceEncoding>UTF-8project.build.sourceEncoding>
    16. <maven.compiler.source>1.8maven.compiler.source>
    17. <maven.compiler.target>1.8maven.compiler.target>
    18. <junit.version>4.12junit.version>
    19. <log4j.version>1.2.17log4j.version>
    20. <lombok.version>1.16.18lombok.version>
    21. <mysql.version>5.1.47mysql.version>
    22. <druid.version>1.1.16druid.version>
    23. <mapper.version>4.1.5mapper.version>
    24. <mybatis.spring.boot.version>1.3.0mybatis.spring.boot.version>
    25. properties>
    26. <dependencies>
    27. <dependency>
    28. <groupId>org.springframework.bootgroupId>
    29. <artifactId>spring-boot-starter-webartifactId>
    30. dependency>
    31. <dependency>
    32. <groupId>org.springframework.bootgroupId>
    33. <artifactId>spring-boot-starter-actuatorartifactId>
    34. dependency>
    35. <dependency>
    36. <groupId>org.springframework.bootgroupId>
    37. <artifactId>spring-boot-starter-testartifactId>
    38. <scope>testscope>
    39. dependency>
    40. dependencies>
    41. <build>
    42. <plugins>
    43. <plugin>
    44. <groupId>org.springframework.bootgroupId>
    45. <artifactId>spring-boot-maven-pluginartifactId>
    46. plugin>
    47. <plugin>
    48. <groupId>org.apache.maven.pluginsgroupId>
    49. <artifactId>maven-resources-pluginartifactId>
    50. <version>3.1.0version>
    51. plugin>
    52. plugins>
    53. build>
    54. project>

    3.1.3 写YML

    server.port=6001

    3.1.4 主启动

    1. package com.atguigu.docker;
    2. import org.springframework.boot.SpringApplication;
    3. import org.springframework.boot.autoconfigure.SpringBootApplication;
    4. @SpringBootApplication
    5. public class DockerBootApplication
    6. {
    7. public static void main(String[] args)
    8. {
    9. SpringApplication.run(DockerBootApplication.class, args);
    10. }
    11. }

    3.1.5 业务类

    1. package com.atguigu.docker.controller;
    2. import org.springframework.beans.factory.annotation.Value;
    3. import org.springframework.web.bind.annotation.RequestMapping;
    4. import org.springframework.web.bind.annotation.RequestMethod;
    5. import org.springframework.web.bind.annotation.RestController;
    6. import java.util.UUID;
    7. /**
    8. * @auther zzyy
    9. * @create 2021-10-25 17:43
    10. */
    11. @RestController
    12. public class OrderController
    13. {
    14. @Value("${server.port}")
    15. private String port;
    16. @RequestMapping("/order/docker")
    17. public String helloDocker()
    18. {
    19. return "hello docker"+"\t"+port+"\t"+ UUID.randomUUID().toString();
    20. }
    21. @RequestMapping(value ="/order/index",method = RequestMethod.GET)
    22. public String index()
    23. {
    24. return "服务端口号: "+"\t"+port+"\t"+UUID.randomUUID().toString();
    25. }
    26. }

    3.2 通过Dockerfile发布微服务部署到docker容器

    3.2.1 IDEA工具里面搞定微服务jar包

    docker_boot-0.0.1-SNAPSHOT.jar

    3.2.2 编写Dockerfile

    Dockerfile内容

    1. # 基础镜像使用java
    2. FROM java:8
    3. # 作者
    4. MAINTAINER zzyy
    5. # VOLUME 指定临时文件目录为/tmp,在主机/var/lib/docker目录下创建了一个临时文件并链接到容器的/tmp
    6. VOLUME /tmp
    7. # 将jar包添加到容器中并更名为zzyy_docker.jar
    8. ADD docker_boot-0.0.1-SNAPSHOT.jar zzyy_docker.jar
    9. # 运行jar包
    10. RUN bash -c 'touch /zzyy_docker.jar'
    11. ENTRYPOINT ["java","-jar","/zzyy_docker.jar"]
    12. #暴露6001端口作为微服务
    13. EXPOSE 6001

    ​​​​​​​将微服务jar包和Dockerfile文件上传到同一个目录下/mydocker

    docker build -t zzyy_docker:1.6 . 

    3.2.3 构建镜像

    ​​​​​​​docker build -t zzyy_docker:1.6 .

    ​​​​​​​打包成镜像文件

    3.2.4 运行容器

    docker run -d -p 6001:6001 zzyy_docker:1.6

    3.2.5 访问测试

    4 Docker网络

    4.1 是什么

    4.1.1 docker不启动,默认网络情况

    ens33:inet代表linux宿主机的地址

    lo:local的意思,本地回环链路

    virbr0:

    在CentOS7的安装过程中如果有选择相关虚拟化的的服务安装系统后,启动网卡时会发现有一个以网桥连接的私网地址的virbr0网卡(virbr0网卡:它还有一个固定的默认IP地址192.168.122.1),是做虚拟机网桥的使用的,其作用是为连接其上的虚机网卡提供 NAT访问外网的功能。

    我们之前学习Linux安装,勾选安装系统的时候附带了libvirt服务才会生成的一个东西,如果不需要可以直接将libvirtd服务卸载,yum remove libvirt-libs.x86_64

    4.1.2 docker启动后,网络情况

    会产生一个名为docker0的虚拟网桥

    ​​​​​​​查看docker网络模式命令:docker network ls

    默认创建3大网络模式

    4.2 常用基本命令

    4.2.1 All命令

    4.2.2 查看网络

    ​​​​​​​docker network ls

    4.2.3 查看网络源数据

    ​​​​​​​docker network inspect  XXX网络名字

    4.2.4 删除网络

    ​​​​​​​docker network rm XXX网络名字

    4.2.5 案例

    4.3 能干嘛

    容器间的互联和通信以及端口映射

    容器IP变动时候可以通过服务名直接网络通信而不受到影响

    4.4 网络模式

    4.4.1 总体介绍

    bridge模式:使用--network  bridge指定,默认使用docker0

    host模式:使用--network host指定

    none模式:使用--network none指定

    container模式:使用--network container:NAME或者容器ID指定

    4.4.2 容器实例内默认网络IP生产规则

    说明

    1 先启动两个ubuntu容器实例

    2 docker inspect 容器ID or 容器名字

    关闭u2实例,新建u3,查看ip变化

    结论

    ​​​​​​​docker容器内部的ip是有可能会发生改变的

    4.4.3 案例说明

    4.4.3.1 bridge

    是什么

    Docker 服务默认会创建一个 docker0 网桥(其上有一个 docker0 内部接口),该桥接网络的名称为docker0,它在内核层连通了其他的物理或虚拟网卡,这就将所有容器和本地主机都放到同一个物理网络。Docker 默认指定了 docker0 接口 的 IP 地址和子网掩码,让主机和容器之间可以通过网桥相互通信。

    # 查看 bridge 网络的详细信息,并通过 grep 获取名称项

    docker network inspect bridge | grep name

    ifconfig 

    案例

    a) 说明

    1 Docker使用Linux桥接,在宿主机虚拟一个Docker容器网桥(docker0),Docker启动一个容器时会根据Docker网桥的网段分配给容器一个IP地址,称为Container-IP,同时Docker网桥是每个容器的默认网关。因为在同一宿主机内的容器都接入同一个网桥,这样容器之间就能够通过容器的Container-IP直接通信。

    2 docker run 的时候,没有指定network的话默认使用的网桥模式就是bridge,使用的就是docker0。在宿主机ifconfig,就可以看到docker0和自己create的network(后面讲)eth0,eth1,eth2……代表网卡一,网卡二,网卡三……,lo代表127.0.0.1,即localhost,inet addr用来表示网卡的IP地址

    3 网桥docker0创建一对对等虚拟设备接口一个叫veth,另一个叫eth0,成对匹配。

       3.1 整个宿主机的网桥模式都是docker0,类似一个交换机有一堆接口,每个接口叫veth,在本地主机和容器内分别创建一个虚拟接口,并让他们彼此联通(这样一对接口叫veth pair);

       3.2 每个容器实例内部也有一块网卡,每个接口叫eth0;

       3.3 docker0上面的每个veth匹配某个容器实例内部的eth0,两两配对,一一匹配。

    通过上述,将宿主机上的所有容器都连接到这个内部网络上,两个容器在同一个网络下,会从这个网关下各自拿到分配的ip,此时两个容器的网络是互通的。

    b) 代码

    docker run -d -p 8081:8080   --name tomcat81 billygoo/tomcat8-jdk8

    docker run -d -p 8082:8080   --name tomcat82 billygoo/tomcat8-jdk8

    c) 两两匹配验证

    4.4.3.2 host

    是什么

    直接使用宿主机的 IP 地址与外界进行通信,不再需要额外进行NAT 转换。

    案例

    a) 说明

    容器将不会获得一个独立的Network Namespace, 而是和宿主机共用一个Network Namespace。容器将不会虚拟出自己的网卡而是使用宿主机的IP和端口。

    b) 代码

    警告:

    ​​​​​​​docker run -d -p 8083:8080 --network host --name tomcat83 billygoo/tomcat8-jdk8

    问题:docke启动时总是遇见标题中的警告

    原因:docker启动时指定--network=host或-net=host,如果还指定了-p映射端口,那这个时候就会有此警告,并且通过-p设置的参数将不会起到任何作用,端口号会以主机端口号为主,重复时则递增。

    解决:解决的办法就是使用docker的其他网络模式,例如--network=bridge,这样就可以解决问题,或者直接无视。。。。O(∩_∩)O哈哈~

    正确:

    ​​​​​​​docker run -d (主机模式下去掉端口映射,无意义) --network host --name tomcat83 billygoo/tomcat8-jdk8

    c) 无之前的配对显示了,看容器实例内部

    d) 没有设置-p的端口映射了,如何访问启动的tomcat83?

    http://宿主机IP:8080/

    在CentOS里面用默认的火狐浏览器访问容器内的tomcat83看到访问成功,因为此时容器的IP借用主机的,所以容器共享宿主机网络IP,这样的好处是外部主机与容器可以直接通信。

    4.4.3.3 none

    是什么

    在none模式下,并不为Docker容器进行任何网络配置。 也就是说,这个Docker容器没有网卡、IP、路由等信息,只有一个lo,需要我们自己为Docker容器添加网卡、配置IP等。

    ​​​​​​​禁用网络功能,只有lo标识(就是127.0.0.1表示本地回环)

    案例

    docker run -d -p 8084:8080 --network none --name tomcat84 billygoo/tomcat8-jdk8

    进入容器内部查看

    在容器外部查看

    4.4.3.4 container

    是什么

    container网络模式 

    新建的容器和已经存在的一个容器共享一个网络ip配置而不是和宿主机共享。新创建的容器不会创建自己的网卡,配置自己的IP,而是和一个指定的容器共享IP、端口范围等。同样,两个容器除了网络方面,其他的如文件系统、进程列表等还是隔离的。

    案例

    docker run -d -p 8085:8080                                     --name tomcat85 billygoo/tomcat8-jdk8

    docker run -d -p 8086:8080 --network container:tomcat85 --name tomcat86 billygoo/tomcat8-jdk8

    运行结果

    # 相当于tomcat86和tomcat85公用同一个ip同一个端口,导致端口冲突

    本案例用tomcat演示不合适。。。演示坑。。。。。。o(╥﹏╥)o

    换一个镜像给大家演示,

    案例2

    ​​​​​​​Alpine操作系统是一个面向安全的轻型 Linux发行版

    Alpine Linux 是一款独立的、非商业的通用 Linux 发行版,专为追求安全性、简单性和资源效率的用户而设计。 可能很多人没听说过这个 Linux 发行版本,但是经常用 Docker 的朋友可能都用过,因为他小,简单,安全而著称,所以作为基础镜像是非常好的一个选择,可谓是麻雀虽小但五脏俱全,镜像非常小巧,不到6M的大小,所以特别适合容器打包。

    docker run -it                                                    --name alpine1  alpine /bin/sh

    docker run -it --network container:alpine1 --name alpine2  alpine /bin/sh

    运行结果,验证共用网桥

    假如此时关闭alpine1,再看看alpine2

    15: eth0@if16: 消失了。。。。。。关闭alpine1,再看看alpine2 

    4.4.3.5 自定义网络

    过时的link

    是什么

    案例:

    before

    案例

    docker run -d -p 8081:8080   --name tomcat81 billygoo/tomcat8-jdk8

    docker run -d -p 8082:8080   --name tomcat82 billygoo/tomcat8-jdk8

    上述成功启动并用docker exec进入各自容器实例内部

    问题

    ​​​​​​​按照IP地址ping是OK的

    ​​​​​​​按照服务名ping结果???

    after

    案例

    自定义桥接网络,自定义网络默认使用的是桥接网络bridge

    新建自定义网络

    新建容器加入上一步新建的自定义网络

    docker run -d -p 8081:8080 --network zzyy_network  --name tomcat81 billygoo/tomcat8-jdk8

    docker run -d -p 8082:8080 --network zzyy_network  --name tomcat82 billygoo/tomcat8-jdk8

    互相ping测试

    问题结论

    自定义网络本身就维护好了主机名和ip的对应关系(ip和域名都能通)

    自定义网络本身就维护好了主机名和ip的对应关系(ip和域名都能通)

    自定义网络本身就维护好了主机名和ip的对应关系(ip和域名都能通)

    4.5 Docker平台架构图解

    4.5.1 整体说明

    从其架构和运行流程来看,Docker 是一个 C/S 模式的架构,后端是一个松耦合架构,众多模块各司其职。 

    Docker 运行的基本流程为:

    1 用户是使用 Docker Client 与 Docker Daemon 建立通信,并发送请求给后者。

    2 Docker Daemon 作为 Docker 架构中的主体部分,首先提供 Docker Server 的功能使其可以接受 Docker Client 的请求。

    3 Docker Engine 执行 Docker 内部的一系列工作,每一项工作都是以一个 Job 的形式的存在。

    4 Job 的运行过程中,当需要容器镜像时,则从 Docker Registry 中下载镜像,并通过镜像管理驱动 Graph driver将下载镜像以Graph的形式存储。

    5 当需要为 Docker 创建网络环境时,通过网络管理驱动 Network driver 创建并配置 Docker 容器网络环境。

    6 当需要限制 Docker 容器运行资源或执行用户指令等操作时,则通过 Execdriver 来完成。

    7 Libcontainer是一项独立的容器管理包,Network driver以及Exec driver都是通过Libcontainer来实现具体对容器进行的操作。

    4.5.2 整体架构

    5 Docker-compose容器编排

    5.1 是什么

    Compose 是 Docker 公司推出的一个工具软件,可以管理多个 Docker 容器组成一个应用。你需要定义一个 YAML 格式的配置文件docker-compose.yml,写好多个容器之间的调用关系。然后,只要一个命令,就能同时启动/关闭这些容器

    ​​​​​​​Docker-Compose是Docker官方的开源项目, 负责实现对Docker容器集群的快速编排。

    5.2 能干嘛

    docker建议我们每一个容器中只运行一个服务,因为docker容器本身占用资源极少,所以最好是将每个服务单独的分割开来,但是这样我们又面临了一个问题?

    如果我需要同时部署好多个服务,难道要每个服务单独写Dockerfile然后在构建镜像,构建容器,这样累都累死了,所以docker官方给我们提供了docker-compose多服务部署的工具

    例如要实现一个Web微服务项目,除了Web服务容器本身,往往还需要再加上后端的数据库mysql服务容器,redis服务器,注册中心eureka,甚至还包括负载均衡容器等等。。。。。。

    Compose允许用户通过一个单独的docker-compose.yml模板文件(YAML 格式)来定义一组相关联的应用容器为一个项目(project)。

    可以很容易地用一个配置文件定义一个多容器的应用,然后使用一条指令安装这个应用的所有依赖,完成构建。Docker-Compose 解决了容器与容器之间如何管理编排的问题。

    5.3 去哪下

    官网

    https://docs.docker.com/compose/compose-file/compose-file-v3/

    官网下载

    https://docs.docker.com/compose/install/

    安装步骤

    curl -L "https://github.com/docker/compose/releases/download/1.29.2/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose

    chmod +x /usr/local/bin/docker-compose

    docker-compose --version

    ​​​​​​​卸载步骤

    5.4 Compose核心概念

    5.4.1 一文件

    ​​​​​​​docker-compose.yml

    5.4.2 两要素

    服务(service)

    一个个应用容器实例,比如订单微服务、库存微服务、mysql容器、nginx容器或者redis容器

    工程(project)

    由一组关联的应用容器组成的一个完整业务单元,在 docker-compose.yml 文件中定义。

    5.5 Compose使用的三个步骤

    编写Dockerfile定义各个微服务应用并构建出对应的镜像文件

    使用 docker-compose.yml 定义一个完整业务单元,安排好整体应用中的各个容器服务。

    最后,执行docker-compose up命令 来启动并运行整个应用程序,完成一键部署上线

    5.6 Compose常用命令

    Compose常用命令

    docker-compose -h                           # 查看帮助

    docker-compose up                           # 启动所有docker-compose服务

    docker-compose up -d                        # 启动所有docker-compose服务并后台运行

    docker-compose down                         # 停止并删除容器、网络、卷、镜像。

    docker-compose exec  yml里面的服务id                 # 进入容器实例内部  docker-compose exec docker-compose.yml文件中写的服务id /bin/bash

    docker-compose ps                      # 展示当前docker-compose编排过的运行的所有容器

    docker-compose top                     # 展示当前docker-compose编排过的容器进程

    docker-compose logs  yml里面的服务id     # 查看容器输出日志

    docker-compose config     # 检查配置

    docker-compose config -q  # 检查配置,有问题才有输出

    docker-compose restart   # 重启服务

    docker-compose start     # 启动服务

    docker-compose stop      # 停止服务

    5.7 Compose编排微服务

    5.7.1 改造升级微服务工程docker_boot

    5.7.1.1 以前的基础版

    5.7.1.2 SQL建表建库
    1. CREATE TABLE `t_user` (
    2. `id` int(10) unsigned NOT NULL AUTO_INCREMENT,
    3. `username` varchar(50) NOT NULL DEFAULT '' COMMENT '用户名',
    4. `password` varchar(50) NOT NULL DEFAULT '' COMMENT '密码',
    5. `sex` tinyint(4) NOT NULL DEFAULT '0' COMMENT '性别 0=女 1=男 ',
    6. `deleted` tinyint(4) unsigned NOT NULL DEFAULT '0' COMMENT '删除标志,默认0不删除,1删除',
    7. `update_time` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP COMMENT '更新时间',
    8. `create_time` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP COMMENT '创建时间',
    9. PRIMARY KEY (`id`)
    10. ) ENGINE=InnoDB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8 COMMENT='用户表'
    5.7.1.3 一键生成说明
    5.7.1.4 改POM
    1. "1.0" encoding="UTF-8"?>
    2. <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
    3. xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd">
    4. <modelVersion>4.0.0modelVersion>
    5. <parent>
    6. <groupId>org.springframework.bootgroupId>
    7. <artifactId>spring-boot-starter-parentartifactId>
    8. <version>2.5.6version>
    9. <relativePath/>
    10. parent>
    11. <groupId>com.atguigu.dockergroupId>
    12. <artifactId>docker_bootartifactId>
    13. <version>0.0.1-SNAPSHOTversion>
    14. <properties>
    15. <project.build.sourceEncoding>UTF-8project.build.sourceEncoding>
    16. <maven.compiler.source>1.8maven.compiler.source>
    17. <maven.compiler.target>1.8maven.compiler.target>
    18. <junit.version>4.12junit.version>
    19. <log4j.version>1.2.17log4j.version>
    20. <lombok.version>1.16.18lombok.version>
    21. <mysql.version>5.1.47mysql.version>
    22. <druid.version>1.1.16druid.version>
    23. <mapper.version>4.1.5mapper.version>
    24. <mybatis.spring.boot.version>1.3.0mybatis.spring.boot.version>
    25. properties>
    26. <dependencies>
    27. <dependency>
    28. <groupId>com.google.guavagroupId>
    29. <artifactId>guavaartifactId>
    30. <version>23.0version>
    31. dependency>
    32. <dependency>
    33. <groupId>org.redissongroupId>
    34. <artifactId>redissonartifactId>
    35. <version>3.13.4version>
    36. dependency>
    37. <dependency>
    38. <groupId>org.springframework.bootgroupId>
    39. <artifactId>spring-boot-starter-webartifactId>
    40. dependency>
    41. <dependency>
    42. <groupId>org.springframework.bootgroupId>
    43. <artifactId>spring-boot-starter-actuatorartifactId>
    44. dependency>
    45. <dependency>
    46. <groupId>io.springfoxgroupId>
    47. <artifactId>springfox-swagger2artifactId>
    48. <version>2.9.2version>
    49. dependency>
    50. <dependency>
    51. <groupId>io.springfoxgroupId>
    52. <artifactId>springfox-swagger-uiartifactId>
    53. <version>2.9.2version>
    54. dependency>
    55. <dependency>
    56. <groupId>org.springframework.bootgroupId>
    57. <artifactId>spring-boot-starter-data-redisartifactId>
    58. dependency>
    59. <dependency>
    60. <groupId>org.springframework.bootgroupId>
    61. <artifactId>spring-boot-starter-cacheartifactId>
    62. dependency>
    63. <dependency>
    64. <groupId>org.apache.commonsgroupId>
    65. <artifactId>commons-pool2artifactId>
    66. dependency>
    67. <dependency>
    68. <groupId>redis.clientsgroupId>
    69. <artifactId>jedisartifactId>
    70. <version>3.1.0version>
    71. dependency>
    72. <dependency>
    73. <groupId>mysqlgroupId>
    74. <artifactId>mysql-connector-javaartifactId>
    75. <version>5.1.47version>
    76. dependency>
    77. <dependency>
    78. <groupId>com.alibabagroupId>
    79. <artifactId>druid-spring-boot-starterartifactId>
    80. <version>1.1.10version>
    81. dependency>
    82. <dependency>
    83. <groupId>com.alibabagroupId>
    84. <artifactId>druidartifactId>
    85. <version>${druid.version}version>
    86. dependency>
    87. <dependency>
    88. <groupId>org.mybatis.spring.bootgroupId>
    89. <artifactId>mybatis-spring-boot-starterartifactId>
    90. <version>${mybatis.spring.boot.version}version>
    91. dependency>
    92. <dependency>
    93. <groupId>org.springframework.bootgroupId>
    94. <artifactId>spring-boot-starter-amqpartifactId>
    95. dependency>
    96. <dependency>
    97. <groupId>commons-codecgroupId>
    98. <artifactId>commons-codecartifactId>
    99. <version>1.10version>
    100. dependency>
    101. <dependency>
    102. <groupId>cn.hutoolgroupId>
    103. <artifactId>hutool-allartifactId>
    104. <version>5.2.3version>
    105. dependency>
    106. <dependency>
    107. <groupId>junitgroupId>
    108. <artifactId>junitartifactId>
    109. <version>${junit.version}version>
    110. dependency>
    111. <dependency>
    112. <groupId>org.springframework.bootgroupId>
    113. <artifactId>spring-boot-devtoolsartifactId>
    114. <scope>runtimescope>
    115. <optional>trueoptional>
    116. dependency>
    117. <dependency>
    118. <groupId>org.springframework.bootgroupId>
    119. <artifactId>spring-boot-starter-testartifactId>
    120. <scope>testscope>
    121. dependency>
    122. <dependency>
    123. <groupId>log4jgroupId>
    124. <artifactId>log4jartifactId>
    125. <version>${log4j.version}version>
    126. dependency>
    127. <dependency>
    128. <groupId>org.projectlombokgroupId>
    129. <artifactId>lombokartifactId>
    130. <version>${lombok.version}version>
    131. <optional>trueoptional>
    132. dependency>
    133. <dependency>
    134. <groupId>javax.persistencegroupId>
    135. <artifactId>persistence-apiartifactId>
    136. <version>1.0.2version>
    137. dependency>
    138. <dependency>
    139. <groupId>tk.mybatisgroupId>
    140. <artifactId>mapperartifactId>
    141. <version>${mapper.version}version>
    142. dependency>
    143. dependencies>
    144. <build>
    145. <plugins>
    146. <plugin>
    147. <groupId>org.springframework.bootgroupId>
    148. <artifactId>spring-boot-maven-pluginartifactId>
    149. plugin>
    150. <plugin>
    151. <groupId>org.apache.maven.pluginsgroupId>
    152. <artifactId>maven-resources-pluginartifactId>
    153. <version>3.1.0version>
    154. plugin>
    155. plugins>
    156. build>
    157. project>
    5.7.1.5 写YML
    1. server.port=6001
    2. # ========================alibaba.druid相关配置=====================
    3. spring.datasource.type=com.alibaba.druid.pool.DruidDataSource
    4. spring.datasource.driver-class-name=com.mysql.jdbc.Driver
    5. spring.datasource.url=jdbc:mysql://192.168.111.169:3306/db2021?useUnicode=true&characterEncoding=utf-8&useSSL=false
    6. spring.datasource.username=root
    7. spring.datasource.password=123456
    8. spring.datasource.druid.test-while-idle=false
    9. # ========================redis相关配置=====================
    10. spring.redis.database=0
    11. spring.redis.host=192.168.111.169
    12. spring.redis.port=6379
    13. spring.redis.password=
    14. spring.redis.lettuce.pool.max-active=8
    15. spring.redis.lettuce.pool.max-wait=-1ms
    16. spring.redis.lettuce.pool.max-idle=8
    17. spring.redis.lettuce.pool.min-idle=0
    18. # ========================mybatis相关配置===================
    19. mybatis.mapper-locations=classpath:mapper/*.xml
    20. mybatis.type-aliases-package=com.atguigu.docker.entities
    21. # ========================swagger=====================
    22. spring.swagger2.enabled=true
    5.7.1.6 主启动
    1. package com.atguigu.docker;
    2. import org.springframework.boot.SpringApplication;
    3. import org.springframework.boot.autoconfigure.SpringBootApplication;
    4. import tk.mybatis.spring.annotation.MapperScan;
    5. @SpringBootApplication
    6. @MapperScan("com.atguigu.docker.mapper") //import tk.mybatis.spring.annotation.MapperScan;
    7. public class DockerBootApplication
    8. {
    9. public static void main(String[] args)
    10. {
    11. SpringApplication.run(DockerBootApplication.class, args);
    12. }
    13. }
    5.7.1.7 业务类

    config配置类

    RedisConfig

    1. package com.atguigu.docker.config;
    2. import lombok.extern.slf4j.Slf4j;
    3. import org.springframework.context.annotation.Bean;
    4. import org.springframework.context.annotation.Configuration;
    5. import org.springframework.data.redis.connection.lettuce.LettuceConnectionFactory;
    6. import org.springframework.data.redis.core.RedisTemplate;
    7. import org.springframework.data.redis.serializer.GenericJackson2JsonRedisSerializer;
    8. import org.springframework.data.redis.serializer.StringRedisSerializer;
    9. import java.io.Serializable;
    10. /**
    11. * @auther zzyy
    12. * @create 2021-10-27 17:19
    13. */
    14. @Configuration
    15. @Slf4j
    16. public class RedisConfig
    17. {
    18. /**
    19. * @param lettuceConnectionFactory
    20. * @return
    21. *
    22. * redis序列化的工具配置类,下面这个请一定开启配置
    23. * 127.0.0.1:6379> keys *
    24. * 1) "ord:102" 序列化过
    25. * 2) "\xac\xed\x00\x05t\x00\aord:102" 野生,没有序列化过
    26. */
    27. @Bean
    28. public RedisTemplate redisTemplate(LettuceConnectionFactory lettuceConnectionFactory)
    29. {
    30. RedisTemplate redisTemplate = new RedisTemplate<>();
    31. redisTemplate.setConnectionFactory(lettuceConnectionFactory);
    32. //设置key序列化方式string
    33. redisTemplate.setKeySerializer(new StringRedisSerializer());
    34. //设置value的序列化方式json
    35. redisTemplate.setValueSerializer(new GenericJackson2JsonRedisSerializer());
    36. redisTemplate.setHashKeySerializer(new StringRedisSerializer());
    37. redisTemplate.setHashValueSerializer(new GenericJackson2JsonRedisSerializer());
    38. redisTemplate.afterPropertiesSet();
    39. return redisTemplate;
    40. }
    41. }

    SwaggerConfig

    1. package com.atguigu.docker.config;
    2. import org.springframework.beans.factory.annotation.Value;
    3. import org.springframework.context.annotation.Bean;
    4. import org.springframework.context.annotation.Configuration;
    5. import springfox.documentation.builders.ApiInfoBuilder;
    6. import springfox.documentation.builders.PathSelectors;
    7. import springfox.documentation.builders.RequestHandlerSelectors;
    8. import springfox.documentation.service.ApiInfo;
    9. import springfox.documentation.spi.DocumentationType;
    10. import springfox.documentation.spring.web.plugins.Docket;
    11. import springfox.documentation.swagger2.annotations.EnableSwagger2;
    12. import java.text.SimpleDateFormat;
    13. import java.util.Date;
    14. /**
    15. * @auther zzyy
    16. * @create 2021-05-01 16:18
    17. */
    18. @Configuration
    19. @EnableSwagger2
    20. public class SwaggerConfig
    21. {
    22. @Value("${spring.swagger2.enabled}")
    23. private Boolean enabled;
    24. @Bean
    25. public Docket createRestApi() {
    26. return new Docket(DocumentationType.SWAGGER_2)
    27. .apiInfo(apiInfo())
    28. .enable(enabled)
    29. .select()
    30. .apis(RequestHandlerSelectors.basePackage("com.atguigu.docker")) //你自己的package
    31. .paths(PathSelectors.any())
    32. .build();
    33. }
    34. public ApiInfo apiInfo() {
    35. return new ApiInfoBuilder()
    36. .title("尚硅谷Java大厂技术"+"\t"+new SimpleDateFormat("yyyy-MM-dd").format(new Date()))
    37. .description("docker-compose")
    38. .version("1.0")
    39. .termsOfServiceUrl("https://www.atguigu.com/")
    40. .build();
    41. }
    42. }

    新建entity

    User

    1. package com.atguigu.docker.entities;
    2. import javax.persistence.Column;
    3. import javax.persistence.GeneratedValue;
    4. import javax.persistence.Id;
    5. import javax.persistence.Table;
    6. import java.util.Date;
    7. @Table(name = "t_user")
    8. public class User
    9. {
    10. @Id
    11. @GeneratedValue(generator = "JDBC")
    12. private Integer id;
    13. /**
    14. * 用户名
    15. */
    16. private String username;
    17. /**
    18. * 密码
    19. */
    20. private String password;
    21. /**
    22. * 性别 0=女 1=男
    23. */
    24. private Byte sex;
    25. /**
    26. * 删除标志,默认0不删除,1删除
    27. */
    28. private Byte deleted;
    29. /**
    30. * 更新时间
    31. */
    32. @Column(name = "update_time")
    33. private Date updateTime;
    34. /**
    35. * 创建时间
    36. */
    37. @Column(name = "create_time")
    38. private Date createTime;
    39. /**
    40. * @return id
    41. */
    42. public Integer getId() {
    43. return id;
    44. }
    45. /**
    46. * @param id
    47. */
    48. public void setId(Integer id) {
    49. this.id = id;
    50. }
    51. /**
    52. * 获取用户名
    53. *
    54. * @return username - 用户名
    55. */
    56. public String getUsername() {
    57. return username;
    58. }
    59. /**
    60. * 设置用户名
    61. *
    62. * @param username 用户名
    63. */
    64. public void setUsername(String username) {
    65. this.username = username;
    66. }
    67. /**
    68. * 获取密码
    69. *
    70. * @return password - 密码
    71. */
    72. public String getPassword() {
    73. return password;
    74. }
    75. /**
    76. * 设置密码
    77. *
    78. * @param password 密码
    79. */
    80. public void setPassword(String password) {
    81. this.password = password;
    82. }
    83. /**
    84. * 获取性别 0=女 1=男
    85. *
    86. * @return sex - 性别 0=女 1=男
    87. */
    88. public Byte getSex() {
    89. return sex;
    90. }
    91. /**
    92. * 设置性别 0=女 1=男
    93. *
    94. * @param sex 性别 0=女 1=男
    95. */
    96. public void setSex(Byte sex) {
    97. this.sex = sex;
    98. }
    99. /**
    100. * 获取删除标志,默认0不删除,1删除
    101. *
    102. * @return deleted - 删除标志,默认0不删除,1删除
    103. */
    104. public Byte getDeleted() {
    105. return deleted;
    106. }
    107. /**
    108. * 设置删除标志,默认0不删除,1删除
    109. *
    110. * @param deleted 删除标志,默认0不删除,1删除
    111. */
    112. public void setDeleted(Byte deleted) {
    113. this.deleted = deleted;
    114. }
    115. /**
    116. * 获取更新时间
    117. *
    118. * @return update_time - 更新时间
    119. */
    120. public Date getUpdateTime() {
    121. return updateTime;
    122. }
    123. /**
    124. * 设置更新时间
    125. *
    126. * @param updateTime 更新时间
    127. */
    128. public void setUpdateTime(Date updateTime) {
    129. this.updateTime = updateTime;
    130. }
    131. /**
    132. * 获取创建时间
    133. *
    134. * @return create_time - 创建时间
    135. */
    136. public Date getCreateTime() {
    137. return createTime;
    138. }
    139. /**
    140. * 设置创建时间
    141. *
    142. * @param createTime 创建时间
    143. */
    144. public void setCreateTime(Date createTime) {
    145. this.createTime = createTime;
    146. }
    147. }

    UserDTO

    1. package com.atguigu.docker.entities;
    2. import io.swagger.annotations.ApiModel;
    3. import io.swagger.annotations.ApiModelProperty;
    4. import lombok.AllArgsConstructor;
    5. import lombok.Data;
    6. import lombok.NoArgsConstructor;
    7. import java.io.Serializable;
    8. import java.util.Date;
    9. @NoArgsConstructor
    10. @AllArgsConstructor
    11. @Data
    12. @ApiModel(value = "用户信息")
    13. public class UserDTO implements Serializable
    14. {
    15. @ApiModelProperty(value = "用户ID")
    16. private Integer id;
    17. @ApiModelProperty(value = "用户名")
    18. private String username;
    19. @ApiModelProperty(value = "密码")
    20. private String password;
    21. @ApiModelProperty(value = "性别 0=女 1=男 ")
    22. private Byte sex;
    23. @ApiModelProperty(value = "删除标志,默认0不删除,1删除")
    24. private Byte deleted;
    25. @ApiModelProperty(value = "更新时间")
    26. private Date updateTime;
    27. @ApiModelProperty(value = "创建时间")
    28. private Date createTime;
    29. /**
    30. * @return id
    31. */
    32. public Integer getId() {
    33. return id;
    34. }
    35. /**
    36. * @param id
    37. */
    38. public void setId(Integer id) {
    39. this.id = id;
    40. }
    41. /**
    42. * 获取用户名
    43. *
    44. * @return username - 用户名
    45. */
    46. public String getUsername() {
    47. return username;
    48. }
    49. /**
    50. * 设置用户名
    51. *
    52. * @param username 用户名
    53. */
    54. public void setUsername(String username) {
    55. this.username = username;
    56. }
    57. /**
    58. * 获取密码
    59. *
    60. * @return password - 密码
    61. */
    62. public String getPassword() {
    63. return password;
    64. }
    65. /**
    66. * 设置密码
    67. *
    68. * @param password 密码
    69. */
    70. public void setPassword(String password) {
    71. this.password = password;
    72. }
    73. /**
    74. * 获取性别 0=女 1=男
    75. *
    76. * @return sex - 性别 0=女 1=男
    77. */
    78. public Byte getSex() {
    79. return sex;
    80. }
    81. /**
    82. * 设置性别 0=女 1=男
    83. *
    84. * @param sex 性别 0=女 1=男
    85. */
    86. public void setSex(Byte sex) {
    87. this.sex = sex;
    88. }
    89. /**
    90. * 获取删除标志,默认0不删除,1删除
    91. *
    92. * @return deleted - 删除标志,默认0不删除,1删除
    93. */
    94. public Byte getDeleted() {
    95. return deleted;
    96. }
    97. /**
    98. * 设置删除标志,默认0不删除,1删除
    99. *
    100. * @param deleted 删除标志,默认0不删除,1删除
    101. */
    102. public void setDeleted(Byte deleted) {
    103. this.deleted = deleted;
    104. }
    105. /**
    106. * 获取更新时间
    107. *
    108. * @return update_time - 更新时间
    109. */
    110. public Date getUpdateTime() {
    111. return updateTime;
    112. }
    113. /**
    114. * 设置更新时间
    115. *
    116. * @param updateTime 更新时间
    117. */
    118. public void setUpdateTime(Date updateTime) {
    119. this.updateTime = updateTime;
    120. }
    121. /**
    122. * 获取创建时间
    123. *
    124. * @return create_time - 创建时间
    125. */
    126. public Date getCreateTime() {
    127. return createTime;
    128. }
    129. /**
    130. * 设置创建时间
    131. *
    132. * @param createTime 创建时间
    133. */
    134. public void setCreateTime(Date createTime) {
    135. this.createTime = createTime;
    136. }
    137. @Override
    138. public String toString() {
    139. return "User{" +
    140. "id=" + id +
    141. ", username='" + username + '\'' +
    142. ", password='" + password + '\'' +
    143. ", sex=" + sex +
    144. '}';
    145. }
    146. }

    新建mapper

    新建接口UserMapper

    1. package com.atguigu.docker.mapper;
    2. import com.atguigu.docker.entities.User;
    3. import tk.mybatis.mapper.common.Mapper;
    4. public interface UserMapper extends Mapper {
    5. }

    ​​​​​​​src\main\resources路径下新建mapper文件夹并新增UserMapper.xml

    1. "1.0" encoding="UTF-8"?>
    2. mapper PUBLIC "-//mybatis.org//DTD Mapper 3.0//EN" "http://mybatis.org/dtd/mybatis-3-mapper.dtd">
    3. <mapper namespace="com.atguigu.docker.mapper.UserMapper">
    4. <resultMap id="BaseResultMap" type="com.atguigu.docker.entities.User">
    5. <id column="id" jdbcType="INTEGER" property="id" />
    6. <result column="username" jdbcType="VARCHAR" property="username" />
    7. <result column="password" jdbcType="VARCHAR" property="password" />
    8. <result column="sex" jdbcType="TINYINT" property="sex" />
    9. <result column="deleted" jdbcType="TINYINT" property="deleted" />
    10. <result column="update_time" jdbcType="TIMESTAMP" property="updateTime" />
    11. <result column="create_time" jdbcType="TIMESTAMP" property="createTime" />
    12. resultMap>
    13. mapper>

    新建service

    1. package com.atguigu.docker.service;
    2. import com.atguigu.docker.entities.User;
    3. import com.atguigu.docker.mapper.UserMapper;
    4. import lombok.extern.slf4j.Slf4j;
    5. import org.slf4j.Logger;
    6. import org.slf4j.LoggerFactory;
    7. import org.springframework.beans.factory.annotation.Autowired;
    8. import org.springframework.data.redis.core.RedisTemplate;
    9. import org.springframework.data.redis.core.ValueOperations;
    10. import org.springframework.stereotype.Service;
    11. import org.springframework.web.bind.annotation.PathVariable;
    12. import javax.annotation.Resource;
    13. import java.util.concurrent.TimeUnit;
    14. /**
    15. * @auther zzyy
    16. * @create 2021-05-01 14:58
    17. */
    18. @Service
    19. @Slf4j
    20. public class UserService {
    21. public static final String CACHE_KEY_USER = "user:";
    22. @Resource
    23. private UserMapper userMapper;
    24. @Resource
    25. private RedisTemplate redisTemplate;
    26. /**
    27. * addUser
    28. * @param user
    29. */
    30. public void addUser(User user)
    31. {
    32. //1 先插入mysql并成功
    33. int i = userMapper.insertSelective(user);
    34. if(i > 0)
    35. {
    36. //2 需要再次查询一下mysql将数据捞回来并ok
    37. user = userMapper.selectByPrimaryKey(user.getId());
    38. //3 将捞出来的user存进redis,完成新增功能的数据一致性。
    39. String key = CACHE_KEY_USER+user.getId();
    40. redisTemplate.opsForValue().set(key,user);
    41. }
    42. }
    43. /**
    44. * findUserById
    45. * @param id
    46. * @return
    47. */
    48. public User findUserById(Integer id)
    49. {
    50. User user = null;
    51. String key = CACHE_KEY_USER+id;
    52. //1 先从redis里面查询,如果有直接返回结果,如果没有再去查询mysql
    53. user = (User) redisTemplate.opsForValue().get(key);
    54. if(user == null)
    55. {
    56. //2 redis里面无,继续查询mysql
    57. user = userMapper.selectByPrimaryKey(id);
    58. if(user == null)
    59. {
    60. //3.1 redis+mysql 都无数据
    61. //你具体细化,防止多次穿透,我们规定,记录下导致穿透的这个key回写redis
    62. return user;
    63. }else{
    64. //3.2 mysql有,需要将数据写回redis,保证下一次的缓存命中率
    65. redisTemplate.opsForValue().set(key,user);
    66. }
    67. }
    68. return user;
    69. }
    70. }

    新建controller

    1. package com.atguigu.docker.controller;
    2. import cn.hutool.core.util.IdUtil;
    3. import cn.hutool.core.util.ReferenceUtil;
    4. import com.atguigu.docker.entities.User;
    5. import com.atguigu.docker.entities.UserDTO;
    6. import com.atguigu.docker.service.UserService;
    7. import io.swagger.annotations.Api;
    8. import io.swagger.annotations.ApiOperation;
    9. import io.swagger.models.auth.In;
    10. import lombok.extern.slf4j.Slf4j;
    11. import org.springframework.beans.BeanUtils;
    12. import org.springframework.beans.factory.annotation.Autowired;
    13. import org.springframework.web.bind.annotation.*;
    14. import javax.annotation.Resource;
    15. import java.util.Random;
    16. /**
    17. * @auther zzyy
    18. * @create 2021-05-01 15:02
    19. */
    20. @Api(description = "用户User接口")
    21. @RestController
    22. @Slf4j
    23. public class UserController
    24. {
    25. @Resource
    26. private UserService userService;
    27. @ApiOperation("数据库新增3条记录")
    28. @RequestMapping(value = "/user/add",method = RequestMethod.POST)
    29. public void addUser()
    30. {
    31. for (int i = 1; i <=3; i++) {
    32. User user = new User();
    33. user.setUsername("zzyy"+i);
    34. user.setPassword(IdUtil.simpleUUID().substring(0,6));
    35. user.setSex((byte) new Random().nextInt(2));
    36. userService.addUser(user);
    37. }
    38. }
    39. @ApiOperation("删除1条记录")
    40. @RequestMapping(value = "/user/delete/{id}",method = RequestMethod.POST)
    41. public void deleteUser(@PathVariable Integer id)
    42. {
    43. userService.deleteUser(id);
    44. }
    45. @ApiOperation("修改1条记录")
    46. @RequestMapping(value = "/user/update",method = RequestMethod.POST)
    47. public void updateUser(@RequestBody UserDTO userDTO)
    48. {
    49. User user = new User();
    50. BeanUtils.copyProperties(userDTO,user);
    51. userService.updateUser(user);
    52. }
    53. @ApiOperation("查询1条记录")
    54. @RequestMapping(value = "/user/find/{id}",method = RequestMethod.GET)
    55. public User findUserById(@PathVariable Integer id)
    56. {
    57. return userService.findUserById2(id);
    58. }
    59. }
    5.7.1.8 微服务打包上传

    ​​​​​​​mvn package命令将微服务形成新的jar包并上传到Linux服务器/mydocker目录下

    5.7.1.9 编写Dockerfile
    1. # 基础镜像使用java
    2. FROM java:8
    3. # 作者
    4. MAINTAINER zzyy
    5. # VOLUME 指定临时文件目录为/tmp,在主机/var/lib/docker目录下创建了一个临时文件并链接到容器的/tmp
    6. VOLUME /tmp
    7. # 将jar包添加到容器中并更名为zzyy_docker.jar
    8. ADD docker_boot-0.0.1-SNAPSHOT.jar zzyy_docker.jar
    9. # 运行jar包
    10. RUN bash -c 'touch /zzyy_docker.jar'
    11. ENTRYPOINT ["java","-jar","/zzyy_docker.jar"]
    12. #暴露6001端口作为微服务
    13. EXPOSE 6001
    5.7.1.10 构建镜像

    ​​​​​​​docker build -t zzyy_docker:1.6 .

    5.7.2 不用Compose

    5.7.2.1 单独的mysql容器实例

    新建mysql容器实例

    1. docker run -p 3306:3306 --name mysql57 --privileged=true \
    2. -v /zzyyuse/mysql/conf:/etc/mysql/conf.d \
    3. -v /zzyyuse/mysql/logs:/logs \
    4. -v /zzyyuse/mysql/data:/var/lib/mysql \
    5. -e MYSQL_ROOT_PASSWORD=123456 -d mysql:5.7

    ​​​​​​​进入mysql容器实例并新建库db2021+新建表t_user

    docker exec -it mysql57 /bin/bash

    mysql -uroot -p

    create database db2021;

    use db2021;

    1. CREATE TABLE `t_user` (
    2. `id` INT(10) UNSIGNED NOT NULL AUTO_INCREMENT,
    3. `username` VARCHAR(50) NOT NULL DEFAULT '' COMMENT '用户名',
    4. `password` VARCHAR(50) NOT NULL DEFAULT '' COMMENT '密码',
    5. `sex` TINYINT(4) NOT NULL DEFAULT '0' COMMENT '性别 0=女 1=男 ',
    6. `deleted` TINYINT(4) UNSIGNED NOT NULL DEFAULT '0' COMMENT '删除标志,默认0不删除,1删除',
    7. `update_time` TIMESTAMP NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP COMMENT '更新时间',
    8. `create_time` TIMESTAMP NOT NULL DEFAULT CURRENT_TIMESTAMP COMMENT '创建时间',
    9. PRIMARY KEY (`id`)
    10. ) ENGINE=INNODB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8mb4 COMMENT='用户表';
    5.7.2.2 单独的redis容器实例
    1. docker run -p 6379:6379 --name redis608 --privileged=true \
    2. -v /app/redis/redis.conf:/etc/redis/redis.conf \
    3. -v /app/redis/data:/data \
    4. -d redis:6.0.8 redis-server /etc/redis/redis.conf
    5.7.2.3 微服务工程

    docker run -d -p 6001:6001 zzyy_docker:1.6

    5.7.2.4 上面三个容器实例依次顺序启动成功

    5.7.3 swagger测试

    ​​​​​​​http://localhost:你的微服务端口/swagger-ui.html#/

    5.7.4 上面成功了,有哪些问题?

    先后顺序要求固定,先mysql+redis才能微服务访问成功

    多个run命令......

    容器间的启停或宕机,有可能导致IP地址对应的容器实例变化,映射出错, 要么生产IP写死(可以但是不推荐),要么通过服务调用

    5.7.5 使用Compose

    5.7.5.1 编写docker-compose.yml文件
    1. version: "3"
    2. services:
    3. microService:
    4. image: zzyy_docker:1.6
    5. container_name: ms01
    6. ports:
    7. - "6001:6001"
    8. volumes:
    9. - /app/microService:/data
    10. networks:
    11. - atguigu_net
    12. depends_on:
    13. - redis
    14. - mysql
    15. redis:
    16. image: redis:6.0.8
    17. ports:
    18. - "6379:6379"
    19. volumes:
    20. - /app/redis/redis.conf:/etc/redis/redis.conf
    21. - /app/redis/data:/data
    22. networks:
    23. - atguigu_net
    24. command: redis-server /etc/redis/redis.conf
    25. mysql:
    26. image: mysql:5.7
    27. environment:
    28. MYSQL_ROOT_PASSWORD: '123456'
    29. MYSQL_ALLOW_EMPTY_PASSWORD: 'no'
    30. MYSQL_DATABASE: 'db2021'
    31. MYSQL_USER: 'zzyy'
    32. MYSQL_PASSWORD: 'zzyy123'
    33. ports:
    34. - "3306:3306"
    35. volumes:
    36. - /app/mysql/db:/var/lib/mysql
    37. - /app/mysql/conf/my.cnf:/etc/my.cnf
    38. - /app/mysql/init:/docker-entrypoint-initdb.d
    39. networks:
    40. - atguigu_net
    41. command: --default-authentication-plugin=mysql_native_password #解决外部无法访问
    42. networks:
    43. atguigu_net:
    5.7.5.2 第二次修改微服务工程docker_boot

    写YML​​​​​​​

    1. server.port=6001
    2. # ========================alibaba.druid相关配置=====================
    3. spring.datasource.type=com.alibaba.druid.pool.DruidDataSource
    4. spring.datasource.driver-class-name=com.mysql.jdbc.Driver
    5. #spring.datasource.url=jdbc:mysql://192.168.111.169:3306/db2021?useUnicode=true&characterEncoding=utf-8&useSSL=false
    6. spring.datasource.url=jdbc:mysql://mysql:3306/db2021?useUnicode=true&characterEncoding=utf-8&useSSL=false
    7. spring.datasource.username=root
    8. spring.datasource.password=123456
    9. spring.datasource.druid.test-while-idle=false
    10. # ========================redis相关配置=====================
    11. spring.redis.database=0
    12. #spring.redis.host=192.168.111.169
    13. spring.redis.host=redis
    14. spring.redis.port=6379
    15. spring.redis.password=
    16. spring.redis.lettuce.pool.max-active=8
    17. spring.redis.lettuce.pool.max-wait=-1ms
    18. spring.redis.lettuce.pool.max-idle=8
    19. spring.redis.lettuce.pool.min-idle=0
    20. # ========================mybatis相关配置===================
    21. mybatis.mapper-locations=classpath:mapper/*.xml
    22. mybatis.type-aliases-package=com.atguigu.docker.entities
    23. # ========================swagger=====================
    24. spring.swagger2.enabled=true

    通过服务名访问,IP无关

    ​​​​​​​​​​​​​​mvn package命令将微服务形成新的jar包 并上传到Linux服务器/mydocker目录下

    编写Dockerfile

    1. # 基础镜像使用java
    2. FROM java:8
    3. # 作者
    4. MAINTAINER zzyy
    5. # VOLUME 指定临时文件目录为/tmp,在主机/var/lib/docker目录下创建了一个临时文件并链接到容器的/tmp
    6. VOLUME /tmp
    7. # 将jar包添加到容器中并更名为zzyy_docker.jar
    8. ADD docker_boot-0.0.1-SNAPSHOT.jar zzyy_docker.jar
    9. # 运行jar包
    10. RUN bash -c 'touch /zzyy_docker.jar'
    11. ENTRYPOINT ["java","-jar","/zzyy_docker.jar"]
    12. #暴露6001端口作为微服务
    13. EXPOSE 6001

    构建镜像

    ​​​​​​​docker build -t zzyy_docker:1.6 .

    5.7.5.3 执行docker-compose up或者执行docker-compose up -d

    5.7.5.4 进入mysql容器实例并新建库db2021+新建表t_user

    docker exec -it 容器实例id /bin/bash

    mysql -uroot -p

    create database db2021;

    use db2021;

    1. CREATE TABLE `t_user` (
    2. `id` INT(10) UNSIGNED NOT NULL AUTO_INCREMENT,
    3. `username` VARCHAR(50) NOT NULL DEFAULT '' COMMENT '用户名',
    4. `password` VARCHAR(50) NOT NULL DEFAULT '' COMMENT '密码',
    5. `sex` TINYINT(4) NOT NULL DEFAULT '0' COMMENT '性别 0=女 1=男 ',
    6. `deleted` TINYINT(4) UNSIGNED NOT NULL DEFAULT '0' COMMENT '删除标志,默认0不删除,1删除',
    7. `update_time` TIMESTAMP NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP COMMENT '更新时间',
    8. `create_time` TIMESTAMP NOT NULL DEFAULT CURRENT_TIMESTAMP COMMENT '创建时间',
    9. PRIMARY KEY (`id`)
    10. ) ENGINE=INNODB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8mb4 COMMENT='用户表';
    5.7.5.5 测试通过
    5.7.5.6 Compose常用命令

    Compose常用命令

    docker-compose -h                           # 查看帮助

    docker-compose up                           # 启动所有docker-compose服务

    docker-compose up -d                        # 启动所有docker-compose服务并后台运行

    docker-compose down                         # 停止并删除容器、网络、卷、镜像。

    docker-compose exec  yml里面的服务id                 # 进入容器实例内部  docker-compose exec docker-compose.yml文件中写的服务id /bin/bash

    docker-compose ps                      # 展示当前docker-compose编排过的运行的所有容器

    docker-compose top                     # 展示当前docker-compose编排过的容器进程

     

    docker-compose logs  yml里面的服务id     # 查看容器输出日志

    dokcer-compose config     # 检查配置

    dokcer-compose config -q  # 检查配置,有问题才有输出

    docker-compose restart   # 重启服务

    docker-compose start     # 启动服务

    docker-compose stop      # 停止服务

    5.7.5.7 关停

    6 Docker轻量级可视化工具Portainer

    6.1 是什么

    Portainer 是一款轻量级的应用,它提供了图形化界面,用于方便地管理Docker环境,包括单机环境和集群环境。

    6.2 安装

    6.2.1 官网

    https://www.portainer.io/

    https://docs.portainer.io/v/ce-2.9/start/install/server/docker/linux

    6.2.2 步骤

    docker命令安装

    1. docker run -d -p 8000:8000 -p 9000:9000 --name portainer --restart=always \
    2. -v /var/run/docker.sock:/var/run/docker.sock \
    3. -v portainer_data:/data \
    4. portainer/portainer
    5. # --restart=always表示docker重启后,部署在该docker上的portainer容器实例也会重启

    ​​​​​​​第一次登录需创建admin,访问地址:xxx.xxx.xxx.xxx:9000

    用户名,直接用默认admin

    密码记得8位,随便你写 

    ​​​​​​​设置admin用户和密码后首次登陆

    ​​​​​​​选择local选项卡后本地docker详细信息展示

    ​​​​​​​上一步的图形展示,能想得起对应命令吗?

     

    6.3 登录并演示介绍常用操作case

    7 Docker容器监控之CAdvisor+InfluxDB+Granfana

    7.1 原生命令

    7.1.1 操作

    docker stats命令的结果

    7.1.2 问题

    通过docker stats命令可以很方便的看到当前宿主机上所有容器的CPU,内存以及网络流量等数据,一般小公司够用了。。。。

    但是, docker stats统计结果只能是当前宿主机的全部容器,数据资料是实时的,没有地方存储、没有健康指标过线预警等功能

    7.2 是什么

    容器监控3剑客

    7.2.1 一句话

    ​​​​​​​CAdvisor监控收集+InfluxDB存储数据+Granfana展示图表

    7.2.2 CAdvisor

    7.2.3 InfluxDB

    7.2.4 Granfana

    7.2.5 总结

    7.3 compose容器编排,一套带走

    7.3.1 新建目录

    7.3.2 新建3件套组合的 docker-compose.yml

    1. version: '3.1'
    2. volumes:
    3. grafana_data: {}
    4. services:
    5. influxdb:
    6. image: tutum/influxdb:0.9
    7. restart: always
    8. environment:
    9. - PRE_CREATE_DB=cadvisor
    10. ports:
    11. - "8083:8083"
    12. - "8086:8086"
    13. volumes:
    14. - ./data/influxdb:/data
    15. cadvisor:
    16. image: google/cadvisor
    17. links:
    18. - influxdb:influxsrv
    19. command: -storage_driver=influxdb -storage_driver_db=cadvisor -storage_driver_host=influxsrv:8086
    20. restart: always
    21. ports:
    22. - "8080:8080"
    23. volumes:
    24. - /:/rootfs:ro
    25. - /var/run:/var/run:rw
    26. - /sys:/sys:ro
    27. - /var/lib/docker/:/var/lib/docker:ro
    28. grafana:
    29. user: "104"
    30. image: grafana/grafana
    31. user: "104"
    32. restart: always
    33. links:
    34. - influxdb:influxsrv
    35. ports:
    36. - "3000:3000"
    37. volumes:
    38. - grafana_data:/var/lib/grafana
    39. environment:
    40. - HTTP_USER=admin
    41. - HTTP_PASS=admin
    42. - INFLUXDB_HOST=influxsrv
    43. - INFLUXDB_PORT=8086
    44. - INFLUXDB_NAME=cadvisor
    45. - INFLUXDB_USER=root
    46. - INFLUXDB_PASS=root

    7.3.3 启动docker-compose文件

    ​​​​​​​docker-compose up

    7.3.4 查看三个服务容器是否启动

    7.3.5 测试

    7.3.5.1 浏览cAdvisor收集服务,http://ip:8080/

    第一次访问慢,请稍等

    cadvisor也有基础的图形展现功能,这里主要用它来作数据采集

    7.3.5.2 浏览influxdb存储服务,http://ip:8083/
    7.3.5.3 浏览grafana展现服务,http://ip:3000

    ​​​​​​​ip+3000端口的方式访问,默认帐户密码(admin/admin)

    配置步骤

    1、配置数据源

    2、选择influxdb数据源

    3、配置细节

     

    4、配置面板panel

     

    5、到这里cAdvisor+InfluxDB+Grafana容器监控系统就部署完成了

    8 终章&总结

    8.1 知识回顾简单串讲和总结

  • 相关阅读:
    接口测试需求分析
    【Rust日报】2022-06-27 Rust 中使用 wasm 来执行 OPA 策略
    RPA在跨境电商领域在哪些应用场景?
    Charles 抓包工具教程(四) Charles 如何进行断点调试
    【pytorch记录】自动混合精度训练 torch.cuda.amp
    Django实现音乐网站 (21)
    一个 curl 配置引发的惨案
    从零开始学mitmproxy抓包工具
    ONEPIECE!程序环境和预处理——C语言最终章
    人类小脑内在组织背后的基因图谱
  • 原文地址:https://blog.csdn.net/weixin_43916081/article/details/135864431