Pod PDB
Table of Contents
这篇文档适用于要构建高可用应用程序的所有者,因此他们需要了解 Pod 可能发生什么类型的中断 也适用于要执行自动集群操作的集群管理员,如升级和集群自动扩容
自愿中断和非自愿中断
Pod 不会消失,直到有人(人类或控制器)将其销毁,或者当出现不可避免的硬件或系统软件错误。我们把这些不可避免的情况称为应用的 非自愿性中断
例如:后端节点物理机的硬件故障,集群管理员错误地删除虚拟机(实例),云提供商或管理程序故障使虚拟机消失,内核错误(kernel panic),节点由于集群网络分区而从集群中消失,由于节点资源不足而将容器逐出
除资源不足的情况外,大多数用户应该都熟悉以下这些情况,它们不是特定于 Kubernetes 的。我们称这些情况为 自愿中断 。包括:
- 应用程序所有者 操作包括:
- 删除管理该 pod 的 Deployment 或其他控制器
- 更新了 Deployment 的 pod 模板导致 pod 重启
- 直接删除 pod(意外删除)
- 集群管理员操作 包括:
- 排空(drain)节点进行修复或升级
- 从集群中排空节点以缩小集群
- 从节点中移除一个 pod,以允许其他 pod 使用该节点
这些操作可能由集群管理员直接执行,也可能由集群管理员或集群托管提供商自动执行
询问集群管理员或咨询云提供商或发行文档,以确定是否为集群启用了任何自动中断源
处理中断
以下是一些减轻非自愿性中断的方法:
- 确保 pod 请求所需的资源
如果需要更高的可用性,请复制应用程序
了解有关运行复制的无状态和有状态应用程序的信息
- 为了在运行复制应用程序时获得更高的可用性,请跨机架(使用反亲和性)或跨区域(如果使用多区域集群)分布应用程序
自愿中断的频率各不相同。在 Kubernetes 集群上,根本没有自愿的中断。但是,集群管理员或托管提供商可能会运行一些导致自愿中断的附加服务:
例如,节点软件更新可能导致自愿更新 另外,集群(节点)自动缩放的某些实现可能会导致碎片整理和紧缩节点的自愿中断 集群管理员或主机提供商应该已经记录了期望的自愿中断级别(如果有的话)
Kubernetes 提供的功能可以满足在频繁地自动中断的同时运行高可用的应用程序。这被称之为 中断预算
工作原理
应用程序所有者 可以为 每个应用程序 创建 一个 PodDisruptionBudget 对象(PDB)。 PDB 将 限制 在 同一时间 自愿中断 的 复制应用程序 中 宕机的 Pod 的数量
例如,基于定额的应用程序希望确保运行的副本数量永远不会低于仲裁所需的数量 Web 前端可能希望确保提供负载的副本的数量永远不会低于总数的某个百分比。
集群管理器和托管提供商应使用遵循 Pod Disruption Budgets 的工具,方法是 调用 Eviction API 而不是直接删除 Pod
例如 kubectl drain 命令和 Kubernetes-on-GCE 集群升级脚本(cluster/gce/upgrade.sh)
当集群管理员想要排空节点时,可以使用 kubectl drain 命令
该命令会试图驱逐机器上的所有 pod 驱逐请求可能会暂时被拒绝,并且该工具会定期重试所有失败的请求,直到所有的 pod 都被终止,或者直到达到配置的超时时间
PDB 指定应用程序可以容忍的副本的数量,相对于应该有多少副本
例如,具有 spec.replicas:5 的 Deployment 在任何给定的时间都应该有 5 个 Pod 如果其 PDB 允许在某一时刻有 4 个副本,那么驱逐 API 将只允许仅有一个而不是两个 Pod 自愿中断
使用标签选择器来指定应用程序的一组 pod,这与应用程序的控制器(Deployment、StatefulSet 等)使用的相同
Pod 控制器的 .spec.replicas 计算“预期的” pod 数量,使用对象的 .metadata.ownerReferences 值从控制器获取
PDB 不能阻止非自愿中断的发生,但是它们确实会影响预算
由于应用程序的滚动升级而被删除或不可用的 Pod 确实会计入中断预算,但控制器(如 Deployment 和 StatefulSet)在进行滚动升级时不受 PDB 的限制 在应用程序更新期间的故障处理是在控制器的 规格spec 中配置
使用驱逐 API 驱逐 pod 时,pod 会被优雅地终止
实例
假设集群有3个节点,node-1 到 node-3 集群中运行了一些应用,其中一个应用有3个副本,分别是 pod-a、pod-b 和 pod-c 另外,还有一个与它相关的不具有 PDB 的 pod,称为之为 pod-x
最初所有 Pod 的分布如下:
node-1 | node-2 | node-3 |
pod-a available | pod-b available | pod-c available |
pod-x available |
所有的3个 pod 都是 Deployment 中的一部分,并且它们共同拥有一个 PDB,要求至少有3个 pod 中的2个始终处于可用状态
假设集群管理员想要重启系统,升级内核版本来修复内核中的错误。集群管理员首先使用 kubectl drain 命令尝试排除 node-1。该工具试图驱逐 pod-a 和 pod-x。这立即成功。两个 Pod 同时进入终止状态。这时的集群处于这种状态:
node-1 | node-2 | node-3 |
pod-a terminating | pod-b available | pod-c available |
pod-x terminating |
Deployment 注意到其中有一个 pod 处于正在终止,因此会创建了一个 pod-d 来替换。由于 node-1 被封锁(cordon),它落在另一个节点上。同时其它控制器也创建了 pod-y 作为 pod-x 的替代品
注意:对于 StatefulSet,pod-a 将被称为 pod-1,需要在替换之前完全终止,替代它的也称为 pod-1,但是具有不同的 UID,可以创建 除此之外,示例也适用于 StatefulSet
这时集群的状态如下:
node-1 | node-2 | node-3 |
pod-a terminating | pod-b available | pod-c available |
pod-x terminating | pod-d starting | pod-y |
在某一时刻,pod 被终止,集群看起来像下面这样子:
node-1 | node-2 | node-3 |
pod-b available | pod-c available | |
pod-d starting | pod-y |
此时,如果一个急躁的集群管理员试图排空(drain)node-2 或 node-3,drain 命令将被阻塞
因为对于 Deployment 只有2个可用的 pod,并且其 PDB 至少需要2个
经过一段时间,pod-d 变得可用:
node-1 | node-2 | node-3 |
pod-b available | pod-c available | |
pod-d available | pod-y |
现在,集群管理员尝试排空 node-2。drain 命令将尝试按照某种顺序驱逐两个 pod,假设先是 pod-b,然后再 pod-d
它将成功驱逐 pod-b。但是,当它试图驱逐 pod-d 时,将被拒绝,因为这样对 Deployment 来说将只剩下一个可用的 pod
Deployment 将创建一个名为 pod-e 的 pod-b 的替代品。但是,集群中没有足够的资源来安排 pod-e。那么,drain 命令就会被阻塞。集群最终可能是这种状态:
node-1 | node-2 | node-3 | no node |
pod-c available | pod-e pending | ||
pod-d available | pod-y |
此时,集群管理员需要向集群中添加回一个节点以继续升级操作
从这个例子里可以看到 Kubernetes 如何改变中断发生的速率,根据: 应用程序需要多少副本 正常关闭实例需要多长时间 启动新实例需要多长时间 控制器的类型 集群的资源能力
分离集群所有者和应用程序所有者角色
将集群管理者和应用程序所有者视为彼此知识有限的独立角色通常是很有用的。这种责任分离在这些情况下可能是有意义的:
- 当有许多应用程序团队共享一个 Kubernetes 集群,并且有自然的专业角色
- 使用第三方工具或服务来自动化集群管理
Pod Disruption Budget(Pod 中断预算) 通过在角色之间提供接口来支持这种角色分离。
如果组织中没有这样的职责分离,则可能不需要使用 Pod 中断预算
如何在集群上执行中断操作
如果是集群管理员,要对集群的所有节点执行中断操作,例如节点或系统软件升级,则可以使用以下选择:
- 在升级期间接受停机时间
- 故障转移到另一个完整的副本集群。
- 没有停机时间,但是对于重复的节点和人工协调成本可能是昂贵的
- 编写可容忍中断的应用程序和使用 PDB
- 没有停机时间
- 最小的资源重复
- 允许更多的集群管理自动化
- 编写可容忍中断的应用程序是很棘手的,但对于可容忍自愿中断,和支持自动调整以容忍非自愿中断,两者在工作上有大量的重叠