思考并回答以下问题:
在上一篇文章中,我主要为你讲解了Kubernetes默认调度器的设计原理和架构。在今天这篇文章中,我们就专注在调度过程中Predicates和Priorities这两个调度策略主要发生作用的阶段。
首先,我们一起看看Predicates。
Predicates在调度过程中的作用,可以理解为Filter,即:它按照调度策略,从当前集群的所有节点中,“过滤”出一系列符合条件的节点。这些节点,都是可以运行待调度Pod的宿主机。
而在Kubernetes中,默认的调度策略有如下四种。
第一种类型,叫作GeneralPredicates。
顾名思义,这一组过滤规则,负责的是最基础的调度策略。比如,PodFitsResources计算的就是宿主机的CPU和内存资源等是否够用。
当然,我在前面已经提到过,PodFitsResources检查的只是Pod的requests字段。需要注意的是,Kubernetes的调度器并没有为GPU等硬件资源定义具体的资源类型,而是统一用一种名叫ExtendedResource的、Key-Value格式的扩展字段来描述的。比如下面这个例子:1
2
3
4
5
6
7
8
9
10
11
12
13apiVersion: v1
kind: Pod
metadata:
name: extended-resource-demo
spec:
containers:
- name: extended-resource-demo-ctr
image: nginx
resources:
requests:
alpha.kubernetes.io/nvidia-gpu: 2
limits:
alpha.kubernetes.io/nvidia-gpu: 2
可以看到,我们这个Pod通过alpha.kubernetes.io/nvidia-gpu=2这样的定义方式,声明使用了两个NVIDIA类型的GPU。
而在PodFitsResources里面,调度器其实并不知道这个字段Key的含义是GPU,而是直接使用后面的Value进行计算。当然,在Node的Capacity字段里,你也得相应地加上这台宿主机上GPU的总数,比如:alpha.kubernetes.io/nvidia-gpu=4。这些流程,我在后面讲解DevicePlugin的时候会详细介绍。
而PodFitsHost检查的是,宿主机的名字是否跟Pod的spec.nodeName一致。
PodFitsHostPorts检查的是,Pod申请的宿主机端口(spec.nodePort)是不是跟已经被使用的端口有冲突。
PodMatchNodeSelector检查的是,Pod的nodeSelector或者nodeAffinity指定的节点,是否与待考察节点匹配,等等。
可以看到,像上面这样一组GeneralPredicates,正是Kubernetes考察一个Pod能不能运行在一个Node上最基本的过滤条件。所以,GeneralPredicates也会被其他组件(比如kubelet)直接调用。
我在上一篇文章中已经提到过,kubelet在启动Pod前,会执行一个Admit操作来进行二次确认。这里二次确认的规则,就是执行一遍GeneralPredicates。
第二种类型,是与Volume相关的过滤规则。
这一组过滤规则,负责的是跟容器持久化Volume相关的调度策略。
其中,NoDiskConflict检查的条件,是多个Pod声明挂载的持久化Volume是否有冲突。比如,AWSEBS类型的Volume,是不允许被两个Pod同时使用的。所以,当一个名叫A的EBSVolume已经被挂载在了某个节点上时,另一个同样声明使用这个AVolume的Pod,就不能被调度到这个节点上了。
而MaxPDVolumeCountPredicate检查的条件,则是一个节点上某种类型的持久化Volume是不是已经超过了一定数目,如果是的话,那么声明使用该类型持久化Volume的Pod就不能再调度到这个节点了。
而VolumeZonePredicate,则是检查持久化Volume的Zone(高可用域)标签,是否与待考察节点的Zone标签相匹配。
此外,这里还有一个叫作VolumeBindingPredicate的规则。它负责检查的,是该Pod对应的PV的nodeAffinity字段,是否跟某个节点的标签相匹配。
在前面的第29篇文章《PV、PVC体系是不是多此一举?从本地持久化卷谈起》中,我曾经为你讲解过,LocalPersistentVolume(本地持久化卷),必须使用nodeAffinity来跟某个具体的节点绑定。这其实也就意味着,在Predicates阶段,Kubernetes就必须能够根据Pod的Volume属性来进行调度。
此外,如果该Pod的PVC还没有跟具体的PV绑定的话,调度器还要负责检查所有待绑定PV,当有可用的PV存在并且该PV的nodeAffinity与待考察节点一致时,这条规则才会返回“成功”。比如下面这个例子:1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21apiVersion: v1
kind: PersistentVolume
metadata:
name: example-local-pv
spec:
capacity:
storage: 500Gi
accessModes:
- ReadWriteOnce
persistentVolumeReclaimPolicy: Retain
storageClassName: local-storage
local:
path: /mnt/disks/vol1
nodeAffinity:
required:
nodeSelectorTerms:
- matchExpressions:
- key: kubernetes.io/hostname
operator: In
values:
- my-node
可以看到,这个PV对应的持久化目录,只会出现在名叫my-node的宿主机上。所以,任何一个通过PVC使用这个PV的Pod,都必须被调度到my-node上才可以正常工作。VolumeBindingPredicate,正是调度器里完成这个决策的位置。
第三种类型,是宿主机相关的过滤规则。
这一组规则,主要考察待调度Pod是否满足Node本身的某些条件。
比如,PodToleratesNodeTaints,负责检查的就是我们前面经常用到的Node的“污点”机制。只有当Pod的Toleration字段与Node的Taint字段能够匹配的时候,这个Pod才能被调度到该节点上。
备注:这里,你也可以再回顾下第21篇文章《容器化守护进程的意义:DaemonSet》中的相关内容。
而NodeMemoryPressurePredicate,检查的是当前节点的内存是不是已经不够充足,如果是的话,那么待调度Pod就不能被调度到该节点上。
第四种类型,是Pod相关的过滤规则。
这一组规则,跟GeneralPredicates大多数是重合的。而比较特殊的,是PodAffinityPredicate。这个规则的作用,是检查待调度Pod与Node上的已有Pod之间的亲密(affinity)和反亲密(anti-affinity)关系。比如下面这个例子:1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20apiVersion: v1
kind: Pod
metadata:
name: with-pod-antiaffinity
spec:
affinity:
podAntiAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
- weight: 100
podAffinityTerm:
labelSelector:
matchExpressions:
- key: security
operator: In
values:
- S2
topologyKey: kubernetes.io/hostname
containers:
- name: with-pod-affinity
image: docker.io/ocpqe/hello-pod
这个例子里的podAntiAffinity规则,就指定了这个Pod不希望跟任何携带了security=S2标签的Pod存在于同一个Node上。需要注意的是,PodAffinityPredicate是有作用域的,比如上面这条规则,就仅对携带了Key是kubernetes.io/hostname标签的Node有效。这正是topologyKey这个关键词的作用。
而与podAntiAffinity相反的,就是podAffinity,比如下面这个例子:1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18apiVersion: v1
kind: Pod
metadata:
name: with-pod-affinity
spec:
affinity:
podAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
- labelSelector:
matchExpressions:
- key: security
operator: In
values:
- S1
topologyKey: failure-domain.beta.kubernetes.io/zone
containers:
- name: with-pod-affinity
image: docker.io/ocpqe/hello-pod
这个例子里的Pod,就只会被调度到已经有携带了security=S1标签的Pod运行的Node上。而这条规则的作用域,则是所有携带Key是failure-domain.beta.kubernetes.io/zone标签的Node。
此外,上面这两个例子里的requiredDuringSchedulingIgnoredDuringExecution字段的含义是:这条规则必须在Pod调度时进行检查(requiredDuringScheduling);但是如果是已经在运行的Pod发生变化,比如Label被修改,造成了该Pod不再适合运行在这个Node上的时候,Kubernetes不会进行主动修正(IgnoredDuringExecution)。
上面这四种类型的Predicates,就构成了调度器确定一个Node可以运行待调度Pod的基本策略。
在具体执行的时候,当开始调度一个Pod时,Kubernetes调度器会同时启动16个Goroutine,来并发地为集群里的所有Node计算Predicates,最后返回可以运行这个Pod的宿主机列表。
需要注意的是,在为每个Node执行Predicates时,调度器会按照固定的顺序来进行检查。这个顺序,是按照Predicates本身的含义来确定的。比如,宿主机相关的Predicates会被放在相对靠前的位置进行检查。要不然的话,在一台资源已经严重不足的宿主机上,上来就开始计算PodAffinityPredicate,是没有实际意义的。
接下来,我们再来看一下Priorities。
在Predicates阶段完成了节点的“过滤”之后,Priorities阶段的工作就是为这些节点打分。这里打分的范围是0-10分,得分最高的节点就是最后被Pod绑定的最佳节点。
Priorities里最常用到的一个打分规则,是LeastRequestedPriority。它的计算方法,可以简单地总结为如下所示的公式:1
score = (cpu((capacity-sum(requested))10/capacity) + memory((capacity-sum(requested))10/capacity))/2
可以看到,这个算法实际上就是在选择空闲资源(CPU和Memory)最多的宿主机。
而与LeastRequestedPriority一起发挥作用的,还有BalancedResourceAllocation。它的计算公式如下所示:1
score = 10 - variance(cpuFraction,memoryFraction,volumeFraction)*10
其中,每种资源的Fraction的定义是:Pod请求的资源/节点上的可用资源。而variance算法的作用,则是计算每两种资源Fraction之间的“距离”。而最后选择的,则是资源Fraction差距最小的节点。
所以说,BalancedResourceAllocation选择的,其实是调度完成后,所有节点里各种资源分配最均衡的那个节点,从而避免一个节点上CPU被大量分配、而Memory大量剩余的情况。
此外,还有NodeAffinityPriority、TaintTolerationPriority和InterPodAffinityPriority这三种Priority。顾名思义,它们与前面的PodMatchNodeSelector、PodToleratesNodeTaints和PodAffinityPredicate这三个Predicate的含义和计算方法是类似的。但是作为Priority,一个Node满足上述规则的字段数目越多,它的得分就会越高。
在默认Priorities里,还有一个叫作ImageLocalityPriority的策略。它是在Kubernetesv1.12里新开启的调度规则,即:如果待调度Pod需要使用的镜像很大,并且已经存在于某些Node上,那么这些Node的得分就会比较高。
当然,为了避免这个算法引发调度堆叠,调度器在计算得分的时候还会根据镜像的分布进行优化,即:如果大镜像分布的节点数目很少,那么这些节点的权重就会被调低,从而“对冲”掉引起调度堆叠的风险。
以上,就是Kubernetes调度器的Predicates和Priorities里默认调度规则的主要工作原理了。
在实际的执行过程中,调度器里关于集群和Pod的信息都已经缓存化,所以这些算法的执行过程还是比较快的。
此外,对于比较复杂的调度算法来说,比如PodAffinityPredicate,它们在计算的时候不只关注待调度Pod和待考察Node,还需要关注整个集群的信息,比如,遍历所有节点,读取它们的Labels。这时候,Kubernetes调度器会在为每个待调度Pod执行该调度算法之前,先将算法需要的集群信息初步计算一遍,然后缓存起来。这样,在真正执行该算法的时候,调度器只需要读取缓存信息进行计算即可,从而避免了为每个Node计算Predicates的时候反复获取和计算整个集群的信息。
总结
在本篇文章中,我为你讲述了Kubernetes默认调度器里的主要调度算法。
需要注意的是,除了本篇讲述的这些规则,Kubernetes调度器里其实还有一些默认不会开启的策略。你可以通过为kube-scheduler指定一个配置文件或者创建一个ConfigMap,来配置哪些规则需要开启、哪些规则需要关闭。并且,你可以通过为Priorities设置权重,来控制调度器的调度行为。
思考题
请问,如何能够让Kubernetes的调度器尽可能地将Pod分布在不同机器上,避免“堆叠”呢?请简单描述下你的算法。