您可以捐助,支持我们的公益事业。

1元 10元 50元





认证码:  验证码,看不清楚?请点击刷新验证码 必填



  求知 文章 文库 Lib 视频 iPerson 课程 认证 咨询 工具 讲座 Model Center   Code  
会员   
   
 
     
   
 
 订阅
云原生之kubernetes调度约束(scheduler调度器)
 
作者:忙碌滴比特流
   次浏览      
 2023-4-24
 
编辑推荐:
本文主要介绍了云原生之kubernetes调度约束--scheduler调度器相关知识。希望对你的学习有帮助。
本文来自于CSDN,由Linda编辑、推荐。

前言:

在默认情况下,一个Pod在哪个Node节点上运行,是由Scheduler组件采用相应的算法计算出来的,这个过程是不受人工控制的。但是在实际使用中,这并不满足的需求,因为很多情况下,我们想控制某些Pod到达某些节点上,这需要根据调度方式进行选择。

调度方式分为四大类:

①、自动调度:运行在哪个节点上完全由Scheduler经过一系列的算法计算得出

②、定向调度:NodeName、NodeSelector

③、亲和性调度:NodeAffinity、PodAffinity、PodAntiAffinity

④、污点(容忍)调度:Taints、Toleration

一、K8s调度约束

kubernetes是通过list-watch的机制进行每个组件的协作,保持数据同步的,每个组件之间的设计实现解耦。

1、调度过程

Scheduler 是 kubernetes 的调度器,主要的任务是把定义的 pod 分配到集群的节点上。调度考虑方向如下:

①、公平:如何保证每个节点都能被分配资源

②、资源高效利用:集群所有资源最大化被使用

③、效率:调度的性能要好,能够尽快地对大批量的 pod 完成调度工作

④、灵活:允许用户根据自己的需求控制调度的逻辑

2、调度的阶段

①、首先是过滤掉不满足条件的节点,这个过程称为预选策略(predicate)

②、然后对通过的节点按照优先级排序,这个是优选策略(priorities)

③、最后从中选择优先级最高的节点。

ps:预选策略的算法

①、PodFitsResources(pod匹配资源):节点上剩余的资源是否大于 pod 请求的资源

②、PodFitsHost(pod匹配主机名):如果 pod 指定了 NodeName,检查节点名称是否和 NodeName 匹配

③、PodFitsHostPorts(pod匹配端口):节点上已经使用的 port 是否和 pod 申请的 port 冲突

④、PodSelectorMatches:过滤掉和 pod 指定的 label 不匹配的节点

⑤、NoDiskConflict:已经 mount 的 volume 和 pod 指定的 volume 不冲突,除非它们都是只读

二、“重启”策略

重启策略(restartPolicy):当Pod 中的容器退出时通过节点上的 kubelet 重启容器(默认策略),适应与pod中的所有容器

重启得到方式:

1、Always:当容器终止退出后,总是重启容器,默认策略

2、onFailure:当容器异常退出(退出状态码非0)时,重启容器;正常退出则不重启容器

3、Never:当容器终止退出后,从不重启容器

查看重启策略的方法及以yaml文件的方式修改:可进行直接修改。

[root@master ~]# kubectl edit pods nginx-ceshi-789db4b458-7dhlv

 

例如:修改nginx的版本号

[root@master ~]# kubectl describe pods nginx-ceshi-789db4b458-7dhlv ###查看pod的详细信息

 

三、建立POD的详细过程创建过程:

①、 pod在启动后,Controller Manager(运行在 Master),Scheduler(运行在 Master),kubelet(运行在 Node),他们都会监听(Watch)ApiServer发生的事件;

②、 用户通过 kubectl 或其他 API 客户端提交请求给 APIServer 来建立一个 Pod 对象副本;

③、APIServer 尝试着将 Pod 对象的相关元信息存入 etcd 中,待写入操作执行完成,APIServer 即会返回确认信息至客户端;

④、当 etcd 接受创建 Pod 信息以后,会发送一个 Create 事件给 APIServer;

⑤、此时处于监听状态的scheduler(调度器),会向api-server请求后端资源信息,然后根据预选、优选策略,选定创建POD的节点,并将信息返回至api-server;

⑥、由于 Controller Manager 一直在监听(Watch,通过https的6443端口)APIServer 中的事件 。此时 APIServer 接受到了 Create 事件,又会发送给 Controller Manager;

⑦、Controller Manager 在接到 Create 事件以后,调用其中的 Replication Controller 来保证 Node 上面需要创建的副本数量。一旦副本数量少于 RC 中定义的数量,RC 会自动创建 副本。总之它是保证副本数量的 Controller;

⑧、在 Controller Manager 创建 Pod 副本以后,APIServer 会在 etcd 中记录这个 Pod 的详细信息。

四、调度方式

1、指定调度节点

ps:当指定调度节点后,在创建POD的时候会跳过scheduler,该匹配规则则属于强匹配,即使该节点配置了污点,污点也发挥不了作用。

[root@master scheduler]# kubectl get pods -o wide

2、通过label-selector机制选择节点,由调度器调度策略匹配 label,然后调度 Pod 到目标节点

①给节点打上标签:

节点node01打标签:
[root@master scheduler]# kubectl label nodes node01 ceshi=a
node/node01 labeled
节点node02打标签:
[root@master scheduler]# kubectl label nodes node02 ceshi=b
node/node02 labeled

 

yaml文件内容:

查看创建POD的节点

[root@master scheduler]# kubectl get pods -o wide

3、节点标签、及删除

①、查询标签

[root@master scheduler]# kubectl describe nodes node02 | grep -i ceshi=b

②、修改标签

③、 删除标签

[root@master scheduler]# kubectl label nodes node02 ceshi- ###在创建的命令,去掉标 签值加上“-”号

④、通过指定标签来查找节点

[root@master scheduler]# kubectl get nodes -l ceshi=a ### -l代表label的意思,指定标签名

五、 亲和性(pod.spec.nodeAffinity)

1、为什么需要亲和性

在k8s的默认调度规则中,节点总会偏向于把所属于一个项目的所有Pod调度在同一节点上。若是服务器配置较低的情况下,较多的Pod调度于同一节点会在眨眼之间充分占用服务器硬件资源,而导致系统负载压力过大,访问不了Pod应用的情况。

2、节点的亲和性

节点亲和性(nodescheduler):基于节点的标签来限定Pod可以被调度到哪些节点上,让k8s集群自动进行负载均衡,提高性能。

①、节点亲和的两种类型:(pod.spec.nodeAffinity)

preferredDuringSchedulingIgnoredDuringExecution:软策略(记忆软屁,p打头即为软策略)

软策略:目标节点最好能满足此条件

requiredDuringSchedulingIgnoredDuringExecution:硬策略

硬策略:目标节点必须满足此条件

3、Pod的亲和性

①、pod点亲和的两种类型:(pod.spec.affinity.podAffinity/podAntiAffinity)

preferredDuringSchedulingIgnoredDuringExecution:软策略

requiredDuringSchedulingIgnoredDuringExecution:硬策略

4、键值运算关系

①、In:label 的值在某个列表中

②、NotIn:label 的值不在某个列表中

③、Gt:label 的值大于某个值

④、Lt:label 的值小于某个值

⑤、Exists:某个 label 存在

⑥、DoesNotExist:某个 label 不存在

5、硬亲和策略测试

①、查看每个节点的标签

②、 创建Yaml文件,创建POD

设置了一个标签,设置的键值关系为notin

查看建立在哪个节点之上

查看调度过程,查看event事件:

[root@master scheduler]# kubectl describe pods affinity

6、软亲和测试

①、查看节点的所有标签

②、编写yaml文件

[root@master scheduler]# kubectl apply -f pod2.yaml

pod/affinity created

③、创建结果

④、查看pod的详细信息

[root@master scheduler]# kubectl get pods -o wide

六、污点和容忍

1、概括

污点,它使节点能够排斥一类特定的 Pod。Taint 和 Toleration 相互配合,可以用来避免 Pod 被分配到不合适的节点上。每个节点上都可以应用一个或多个 taint ,这表示对于那些不能容忍这些 taint 的 Pod,是不会被该节点接受的。如果将 toleration 应用于 Pod 上,则表示这些 Pod 可以(但不一定)被调度到具有匹配 taint 的节点上。

使用 kubectl taint 命令可以给某个 Node 节点设置污点,Node 被设置上污点之后就和 Pod 之间存在了一种相斥的关系,可以让Node 拒绝 Pod 的调度执行,甚至将 Node 已经存在的 Pod 驱逐出去。

2、每个污点有一个 key 和 value 作为污点的标签,其中 value 可以为空,effect 描述污点的作用

当前 taint effect 支持如下三个选项:

①、NoSchedule:表示 k8s 将不会将 Pod 调度到具有该污点的 Node 上

②、PreferNoSchedule:表示 k8s 将尽量避免将 Pod 调度到具有该污点的 Node 上

③、NoExecute:表示 k8s 将不会将 Pod 调度到具有该污点的 Node 上,同时会将 Node 上已经存在的 Pod 驱逐出去

3、设置污点(NoSchedule)

[root@master scheduler]# kubectl taint node node01 ceshi=abc:NoSchedule ## 在node01上设置污点

 

[root@master scheduler]# kubectl create deployment nginx-noschedule --image=nginx --port=80 --replicas=3

节点node01上有污点,新建pod都不在node01上建立

4、删除污点

[root@master scheduler]# kubectl taint node node01 ceshi- ### 标签不带标签值后面加“-” 即可删除

删除一个副本,实验是否会在node01上创建

[root@master scheduler]# kubectl delete pod nginx-noschedule-545d5b4b4b-49cj4

5、配置污点(NoExecute)

[root@master scheduler]# kubectl taint node node02 ceshi-noexecute=a:NoExecute

##配置了污点且具有驱逐,配置成功之后,把节点上所有的pod都驱逐出去

6、配置容忍

设置了污点的 Node 将根据 taint 的三种模式:NoSchedule、PreferNoSchedule、NoExecute 和 Pod 之间产生互斥的关系,Pod 将在一定程度上不会被调度到 Node 上。但我们可以在 Pod 上设置容忍(Tolerations),意思是设置了容忍的 Pod 将可以容忍污点的存在,可以被调度到存在污点的 Node 上。

### node01打污点(驱逐)

[root@master scheduler]# kubectl taint node node01 check=mycheck:NoExecute

node/node01 tainted

### node02打污点(驱逐)

### 编辑创建pod的yaml文件

[root@master scheduler]# vim pod3.yaml

apiVersion: v1

kind: Pod

metadata:

name: myapp01

labels:

app: myapp01

spec:

containers:

- name: with-node-affinity

image: soscscs/myapp:v1

### 建立pod

[root@master scheduler]# kubectl apply -f pod3.yaml

pod/myapp01 created

### 持续观测新建pod状态

修该yaml文件,添加容忍

[root@master scheduler]# vim pod3.yaml

apiVersion: v1

kind: Pod

metadata:

name: myapp01

labels:

app: myapp01

spec:

containers:

- name: with-node-affinity

image: soscscs/myapp:v1

tolerations:

- key: "check"

operator: "Equal"

value: "mycheck"

effect: "NoExecute"

tolerationSeconds: 3600

配置容忍后,含有污点的节点也能创建成功

七、Pod启动阶段

Pod 创建完之后,一直到持久运行起来,中间有很多步骤,也就有很多出错的可能,因此会有很多不同的状态

pod的创建过程中的几大步骤

(1)调度到某台 node 上。kubernetes 根据一定的优先级算法选择一台 node 节点将其作为 Pod 运行的 node

(2)拉取镜像

(3)挂载存储配置等

(4)运行起来。如果有健康检查,会根据检查的结果来设置其状态。

可能会出现的状态:

①、Pending:表示APIServer创建了Pod资源对象并已经存入了etcd中,但是它并未被调度完成(比如还没有调度到某台node上),或者仍然处于从仓库下载镜像的过程中

②、unning:Pod已经被调度到某节点之上,并且Pod中所有容器都已经被kubelet创建。至

少有一个容器正在运行,或者正处于启动或者重启状态(也就是说Running状态下的Pod不一

定能被正常访问)

③、Succeeded:有些pod不是长久运行的,比如job、cronjob,一段时间后Pod中的所有容器

都被成功终止,并且不会再重启。需要反馈任务执行的结果

④、Failed:Pod中的所有容器都已终止了,并且至少有一个容器是因为失败终止。也就是说,容

器以非0状态退出或者被系统终止,比如 command 写的有问题

⑤、Unknown:表示无法读取 Pod 状态,通常是 kube-controller-manager 无法与 Pod 通信

 

   
次浏览       
相关文章

聊聊云原生和微服务架构
Serverless:微服务架构的终极模式
如何实现微服务架构下的分布式事务?
微服务下的数据架构设计
相关文档

微服务和云原生应用
微服务架构原理和设计方法
0到3000万用户微服务之旅
微服务在微信后台的架构实践
相关课程

微服务架构设计与实践
领域驱动+微服务架构设计
云计算、微服务与分布式架构
云平台与微服务架构设计

最新活动计划
QT应用开发 11-21[线上]
C++高级编程 11-27[北京]
LLM大模型应用与项目构建 12-26[特惠]
UML和EA进行系统分析设计 12-20[线上]
数据建模方法与工具 12-3[北京]
SysML建模专家 1-16[北京]
 
 
最新文章
云原生架构概述
K8S高可用集群架构实现
容器云管理之K8S集群概述
k8s-整体概述和架构
十分钟学会用docker部署微服务
最新课程
云计算、微服务与分布式架构
企业私有云原理与构建
基于Kubernetes的DevOps实践
云平台架构与应用(阿里云)
Docker部署被测系统与自动化框架实践
更多...   
成功案例
北京 云平台与微服务架构设计
通用公司GE Docker原理与实践培训
某军工研究单位 MDA(模型驱动架构)
知名消费金融公司 领域驱动设计
深圳某汽车企业 模型驱动的分析设计
更多...