默认使用IPIP协议
:跨网段
不仅提供主机和pod之间的网络连接,还涉及网络安全和管理。Calico CNI插件在CNI框架内封装了Calico的功能。
与Flannel不同,Calico不使用overlay网络
使用BGP路由协议在主机之间路由数据包。这意味着在主机之间移动时,不需要将数据包包装在额外的封装层中。BGP路由机制可以本地引导数据包,而无需额外在流量层中打包流量。
Calico是一个**纯三层
**的网络解决方案,为容器提供多node间的访问通信
,
kubectl edit ippool default-ipv4-ippool
ipipMode:等价于CALICO_IPV4POOL_IPIP,
Always
:始终使用IPIP隧道
CrossSubnet
:只有在跨子网的时候才使用IPIP隧道
Never
:不使用IPIP
vxlanMode:vxlan隧道模式,不能与ipipMode同时使用(等价于CALICO_IPV4POOL_VXLAN)
Always
:始终使用VXLAN隧道
CrossSubnet
:只有在跨子网的时候才使用VXLAN隧道,如果物理主机在同一2层网络中则使用BGP动态路由通信方式
Never
:不使用VXLAN
natOutgoing: true
启用后,由本地池分配的容器房网外网的数据包会做伪装(masquerade),true,false
nodeSelector: all()
节点标签选择器,calico IPAM只为匹配的节点分配地址,默认:all()
注意点
:
1、Calico覆盖网络支持IPIP、VXLAN两种协议,仅能启用其中一种。
VXLAN协议禁止启用由"CALICO_IPV4POOL_VXLAN"项控制。
默认情况下,Calico清单启用IPIP封装。如果你期望Calico使用VXLAN封装模式,则需要在安装时候做以下操作:
1、将"CALICO_IPV4POOL_IPIP “设置为"Never”,将"CALICO_IPV4POOL_VXLAN"设置为"Always".
kind: DaemonSet
apiVersion: apps/v1
metadata:
name: calico-node
namespace: kube-system
labels:
k8s-app: calico-node
spec:
template:
spec:
containers:
- name: calico-node
image: calico/node:v3.14.2
env:
...
# Enable IPIP
- name: CALICO_IPV4POOL_IPIP
value: "Never"
- name: CALICO_IPV4POOL_VXLAN
value: "Always"
...
2、如果你只想集群仅使用基于VXLAN协议的覆盖网络模式,用不到BGP动态路由模式的话,即为了节省一点资源,可以选择完全禁用Calico基于BGP的网络:
将"calico_backend: “bird”“修改为"calico_backend: “vxlan””,这将禁用BIRD。
从calico/node的readiness/liveness检查中去掉"- -bird-ready"和"- -bird-live"。
livenessProbe:
exec:
command:
- /bin/calico-node
- -felix-live
# - -bird-live
readinessProbe:
exec:
command:
- /bin/calico-node
# - -bird-ready
- -felix-ready
在清单文件的开始有ConfigMap描述Calico的配置内容,其重要的配置项解读如下:
kind: ConfigMap
apiVersion: v1
metadata:
name: calico-config
namespace: kube-system
data:
typha_service_name: "none"
calico_backend: "bird"
veth_mtu: "1440"
cni_network_config: |-
{
"name": "k8s-pod-network",
"cniVersion": "0.3.1",
"plugins": [
{
"type": "calico",
"log_level": "info",
"datastore_type": "kubernetes",
"nodename": "__KUBERNETES_NODE_NAME__",
"mtu": __CNI_MTU__,
"ipam": {
"type": "calico-ipam"
},
"policy": {
"type": "k8s"
},
"kubernetes": {
"kubeconfig": "__KUBECONFIG_FILEPATH__"
}
},
{
"type": "portmap",
"snat": true,
"capabilities": {"portMappings": true}
},
{
"type": "bandwidth",
"capabilities": {"bandwidth": true}
}
]
}
1、typha_service_name: “none”
Typha是Calico的一个扩展组件,用于Calico通过Typha直接与Etcd通信,而不是通过kube-apiserver。通常当K8S的规模超过50个节点的时候推荐启用它,以降低kube-apiserver的负载。
支持值:
2、calico_backend: “bird”
设置Calico使用的后端机制。支持值:
bird,开启BIRD功能,根据Calico-Node的配置来决定主机的网络实现是采用BGP路由模式还是IPIP、VXLAN覆盖网络模式。
vxlan,纯VXLAN模式,仅能够使用VXLAN协议的覆盖网络模式。
3、veth_mtu: “0”
设置虚拟接口"calicoxxxxx"的MTU值,默认情况下MTU是自动检测的,不需要显示的设置此字段。
可以通过提供一个非零值来设置它。
MTU,Maximum Transmission Unit,最大传输单元,网络设备一次发送数据包大小,单位为Byte,MTU值约小则传输速率约高,此值应由系统设置的最合理的值,通常不需要我们手动设置,最大值为1500。
4、cni_network_config:
在每个节点上都要安装的CNI网络插件配置。保持默认就好。
5、spec.calicoNetwork
配置Calico网络。
6、spec.calicoNetwork.bgp
开启或禁用BGP路由功能。支持值:Enabled, Disabled。
7、spec.calicoNetwork.ipPools
IPPool,为由节点筛选器指定节点上创建Pod分配的单个或多个地址池,以及要使用的Pod网络的实现方法。
8、spec.calicoNetwork.ipPools.blockSize(int32)
块大小,子网划分技术,指从CIDR(如:10.2