第二章:pod-运行于kubernetes中的容器
本章内容包括
创建、启动和停止pod
使用标签组织pod和其他资源
使用特定标签对所有pod执行操作
使用命名空间将多个pod分到不重叠的组中
调度pod到指定类型的工作节点
pod是kubernetes中最为重要的核心概念,其他对象仅仅为管理、暴露pod或被pod使用。
1 pod是什么
pod是一组并置的容器,代表了kubernetes中最基本构建模块。在实际应用中不会单独部署容器,更多的是针对一组pod的容器进行部署和操作。但这并不意味这一个pod要包含多个容器,kubernetes以pod为基本单位,所以即使一个pod中包含了多个容器,但这多个容器实际上是运行在一个node中。
1.1 为什么需要pod
为什么kubernetes需要pod?而不是直接使用容器?为什么需要同时运行多个容器?不能把所有进程都放在一个容器里面嘛?
1.1.1 为什么运行多个容器?
容器被设计为每个容器只运行一个进程(除非进程本身产生子进程),这样能保证容器和服务具有相同的生命周期,这样才能最好的应用容器编排来管理好容器和服务。如果一个容器内运行多个不相干的进程,那么kubernetes将无法很好的管理这些进程。设计每个容器只允许一个进程有以下好处:
简化管理和伸缩:每个容器只运行一个应用程序,使得水平伸缩变得容易。当需要更多资源时,可以快速创建新的容器,而无需担心多个应用程序之间的相互影响。
提高服用性:单个容器只运行一个应用程序,可以方便地将容器重新用于其他项目或目的,从而提高容器的复用性。
简化故障排查:当容器出现故障时,开发人员可以专注于排查特定应用程序的问题,而无需对整个系统的各个部分进行排查。这有助于提高容器的可移植性和可预测性。
提高应用持续生命周期管理的灵活性:升级程序时,可以将影响范围控制在更小的粒度。这有助于避免在升级某个服务时中断相同容器中的其他进程。
提高安全性和隔离性:每个容器只运行一个应用程序,有助于提供更安全的服务和应用程序间的隔离。这有助于保持强大的安全状态,或遵守PCI之类的规定。
1.2 了解pod
由于不能将多个进程聚集在一个单独的容器中,所以需要一种更高级的结构来将容器绑定在一起,并将它们作为一个单元进行管理,这就是请问什么需要pod的原因。
在包含容器的pod下,我们可以同时运行一些具有超亲密度的进程,并为它们提供相同的环境。此时这些进程就好像全部运行在单个容器中一样,同时又保持着一定的隔离。这样一来就能全面利用容器所提供的特性,同时对这些进程来说它们就像运行在一个机器上一样。
1.2.1 同一pod中的部分隔离
容器与容器之间是完全隔离的,但当一组容器具有超亲密度关系的时候,我们会期望它们之间是部分隔离,而不是完全隔离。也就是隔离容器组,让每个容器组内的容器共享一些资源,而不是全部。kubernetes使用pod来使一组容器共享相同的命名空间。如以下几个命名空间:
UTS
IPC
NET 新版的kubernetes也支持共享PID命名空间,但并不是默认开启的,可以通过设置pod的
shareProcessNamespace
的值为true来开启这个功能。
但当涉及到文件系统时,情况就变的有点不一样了。因为容器的文件系统来自容器镜像,因此在默认情况下,每个容器的文件系统与其他容器完全隔离,所以需要使用kubenetes中的volumn资源来共享文件目录。
1.2.2 pod网络
由于一个pod中的容器运行于相同的Network空间,所以一个pod中的容器共享相同的IP和端口端口空间,所以在同一个pod中运行的多个进程注意别绑定到相同的端口。
kubernetes集群中所有的pod都在同一个共享网络地址空间中,所以每个pod都可以通过其他pod的IP地址来实现相互访问。同一个集群下的pod通信是没有net(网络地址转换)的。这是通过网络插件实现的,所以不同的网络插件有不同的实现方式,但目的都是为了给pod提供一个统一的网络环境,使pod可以直接通信。
1.3 通过pod合理管理容器
由于pod比较轻量,可以让我们在几乎没有任何额外开销的情况下拥有尽可能多的pod,所以我们应该将应用持续组织到多个pod中,每个pod只保存具有超亲密度关系的容器。
1.3.1 将多层应用分散到多个pod中
在云原生架构中,我们应该尽可能的把不同的组件放到不同的pod中,并且把pod调度到不同的工作节点中,这样才能最大的利用不同节点的计算资源,提高基础架构的利用率。
另一个将不同组件放到不同pod上的考虑是kubernetes的扩缩容是基于pod的,如果将多个组件放到同一个pod中,那么扩缩容时也将把多个组件同时进行,所以当一个组件有单独扩缩容的需求时,应该把它放到一个单独的pod中。
1.3.2 何时在pod中使用多个容器
一般将具有超亲密度关系的容器放在一个pod中,例如,部署一个web应用和其日志收集器,这个时候就需要把这两个容器放在一个pod中。这也是kubernetes中常用的边车模式(siedecar)。
当需要决定多个容器是否需要存放在一个pod中时,可以根据以下问题决定:
它们需要一起运行还是可以运行在不同的主机上?
它们代表的时一个整体还是相互独立的组件?
它们必须一起扩缩容还是可以分别进行?
基本上,除了具有超亲密度的容器,一般倾向于在单独的pod中运行单独的容器。
2 用YAML创建pod
pod和其他kubernetes资源通常时通过向kubernetes REST API提供JSON或YAML描述文件来创建的。一般来说,pod的yaml文件会包含以下几个部分:
apiVersion:YAMl描述文件所使用的Kubernetes API版本
kind:kubernetes对象资源类型
metadata:pod元数据,包括名称、标签、注解、命名空间等
spec:pod规格/内容说明,包括pod的容器列表、volume等
status:只读的运行时数据,pod及其内部容器的详细状态,如pod所处的条件,每个容器的描述和状态,以及内部IP和其他基本信息。一般创建时不需要指定
# kubia-manual.yaml
apiVersion: v1 # 使用v1版本的API
kind: Pod # 描述一个pod
metadata:
name: kubia-manual # 名字为kubia-manual
spec:
containers: # pod容器列表
- image: luksa/kubia # 镜像的名称
name: kubia # 容器的名称
ports: # 应用监听端口
- containerPort: 8080
protocol: TCP
在pod定义中指定端口纯粹是展示性的(informational)。忽略它们对于客户端是否可以通过端口连接到pod不会带来任何影响。但明确定义端口任然是有意义的,在端口定义下,每个使用集群的人都可以快速查看每个pod对外暴露的端口,还可以为每个端口定义一个名称,方便我们使用。
在编写定义文件时,如果不清楚对应的API对象都支持什么属性,可以在https://kubernetes.io/zh-cn/docs/reference/kubernetes-api/对对应API属性进行查找。
也可以使用explain命令查看对应API资源的字段帮助,如:
kubectl explain pods。
这将打印出对象的解释并列出对象可以包含的属性,并且可以深入查看各个属性的更多信息,如这样可以查看spec属性:
kubectl explain pods.spec
2.1 创建pod
在编写好yaml描述文件后,就需要使用这个描述文件把具体的资源对象创建出来,可以使用以下两个命令进行创建
kubectl create -f kubia-manual.yaml
kubectl apply -f kubia-manual.yaml
create
和apply
命令都能对资源进行创建,两者又有一些不同:
create
创建时如果资源已经存在它会报错并停止执行,意味着不能使用create
来更新现有资源的配置。apply
使用声明式的方式来更新资源,它会比较yaml文件中的配置和集群中现有的资源配置,然后应用差异,意味着可以使用apply
来更新资源的配置,而不需要手动删除和重新创建资源。
在平时创建资源时推荐使用apply
方式进行创建。当资源创建完成后,可以使用以下命令拿到资源的详细信息:
使用get命令可以简单查看pod是否在正常运行
kubectl get pods
json:以 JSON 格式输出资源的详细信息。
kubectl get pods -o json
yaml:以 YAML 格式输出资源的详细信息。
kubectl get pods -o yaml / describe
name:以简短的资源名称格式输出资源。这种格式仅显示资源的名称,不包括其他信息。
kubectl get pods -o name
wide:以表格格式输出资源的详细信息,包括额外的信息,如节点名称、IP 地址等。
kubectl get pods -o wide
custom-columns:以表格格式输出资源的自定义列。您可以使用此选项自定义要显示的列和列标题。
kubectl get pods -o custom-columns=NAME:.metadata.name,STATUS:.status.phase
jsonpath:以 JSONPath 表达式输出资源的自定义信息。您可以使用此选项自定义要显示的信息。
kubectl get pods -o jsonpath='{.items[*].metadata.name}'
go-template:以 Go 模板输出资源的自定义信息。您可以使用此选项自定义要显示的信息。
kubectl get pods -o go-template='{{range .items}}{{.metadata.name}}{{"\n"}}{{end}}'
2.2 查看应用程序日志
容器化的应用程序通常会将日志记录到标准输出和标准错误输出流,而不是将其写入文件,但容器运行时将这些流重定向到文件,并使用相关命令来查看日志docker logs <container id>
,也可以使用kubernetes提供的命令kubectl logs <pod_name>
kubectl logs <pod_name> #获取单个pod日志
kubectl logs <pod_name> -c<container_name> # 多容器pod指定获取容器日志
kubectl logs -f <pod_name> # 实时查看日志
kubectl logs --tail=<number_of_lines> <pod_name> # 限制显示日志行数
kubectl logs --timestamps <pod_name> # 显示时间戳
kubectl logs --previous <pod_name> # 如果容器已经重启,可以使用previous获取以前容器日志
每天或每次日志文件达到10M的时候,容器日志会自动轮替,logs
命令仅显示最后一次轮替后的日志条目。可以在docker配置文件/etc/docker/daemon.json
中设置
{
"log-driver": "json-file",
"log-opts": {
"max-size": "10m",
"max-file": "1"
}
}
当pod删除后,pod中的日志也会随之删除,除非配置设置中心化的、集群范围的日志系统,将所有日志存储到中心存储中。
2.3 使用标签组织pod
一般来说,kubernetes集群中会有很多资源对象实例,如果没有一种有效的方式对大规模的实例进行分组管理,那kubernetes架构就会显的非常混乱,所以也就有了标签。
标签是一种简单却功能强大的kubernetes特性,不仅可以组织pod,也可以组织其他kubernetes资源。准确来说,标签是可以附加到资源上的任意键值对,用以选择/过滤具有确切标签的资源(用标签选择器完成)。在同一个资源对象上,标签的键必须是唯一的。通常在编写描述文件时就会将标签附加到资源上,但也可以在资源创建后对标签进行设置,且无需重新创建资源。
标签是一个键值对,其中键和值都是字符串。键和值都必须是有效的 DNS 标签,即它们必须符合以下规则:
键和值的长度必须在 1 到 63 个字符之间。
键和值只能包含字母(大写或小写)、数字、连字符(-)和下划线(_)。
键必须以字母或数字开头和结尾。
# kubia-manual-with-labels.yaml
apiVersion: v1
kind: Pod
metadata:
name: kubia-manual-v2
labels: # 设置标签
creation_method: manual
env: prod
spec:
containers:
- image: luksa/kubia
name: kubia
ports:
- containerPort: 8080
protocol: TCP
在上面这个描述文件中,我们给kubia-manual-v2
这个pod打上了两个标签,在成功创建了这个pod实例后,可以使用kubectl get po --show-labels
进行查看标签,也可以使用-L creation_method,env
过滤感兴趣的标签。常用的标签操作如下:
kubectl label pods <pod_name> <key>=<value> # 添加标签
kubectl label pods <pod_name> <key>=<new_value> --overwrite # 修改标签
kubectl label pods <pod_name> <key>- # 删除标签
kubectl get pods -l <key>=<value> # 选择标签
# -l <key>=<value>:选择对应标签资源
# -l <key>:选择具有标签的资源
# -l '!<key>':选择不包含对应标签资源
# -l <key>!=<value>
# -l app in (gem-account)
# -l app notin (gem-account)
如果想要过滤多个条件,可以使用逗号分隔条件。-l 'app notin (gem-account),app=gem-battle-blue'
2.4 使用标签和选择器来约束pod调度
在目前未知,我们使用yaml描述文件创建出来的pod都被随机的调度到工作节点上,这正是kubernetes集群中工作的正确方式,由于kubernetes将所有工作节点抽象为一个整体的大型部署平台,所以pod实际被调度到哪个节点是无关紧要的。但实际上由于硬件资源的不同,我们有时候可能会想要把需要某些硬件特点的pod调度到某个具体的节点。
apiVersion: v1
kind: Pod
metadata:
name: kubia-gpu
spec:
nodeSelector: # 节点选择器
gpu: "true"
containers:
- image: luksa/kubia
name: kubia
添加节点选择器后,这个pod指挥调度到具有gpu:"true"
标签的节点上。每个节点上都会有一个kubernetes.io/hostname
标签,所以我们也可以指定一个具体的节点调度,但不推荐这么做,如果这个节点宕机会导致pod不可调度。
2.5 注解
除注解外,pod和其他对象还可以包含注解。注解也是键值对,但与标签不同,注解并不是为了保存标识信息而存在的,也没有注解选择器这样的东西。
注解可以容纳更多的信息,且主要用于工具使用。向kubernetes引入新特性时,通常会使用注解。一旦所需的API更改变得清晰并得到所有相关人员的认可,就会引入新字段并废弃相关注解。注解是一组键值对,其中键是字符串,值可以是字符串、布尔值、整数等类型。注解的键必须是唯一的,且不能包含空格、制表符等特殊字符。注解的值可以是任意字符串,但不能包含换行符。注解的大小限制为 256KB。这意味着不能在注解中存储大量数据。
apiVersion: v1
kind: pod
metadata:
annotations:
deployment.kubernetes.io/revision: '1'
大量使用注解可以为每个pod或其他API对象添加说明,以便每个使用该集群的人都可以快速查找有关每个单独对象的信息。例如,指定创建对象的人员姓名的注解可以使在集群工作的人员之间的协作更加便利。常用注解操作如下:
kubectl annotate pod my-pod my-annotation=my-value # 新增
kubectl describe pod my-pod # 查看
kubectl annotate pod my-pod my-annotation=new-value --overwrite # 修改
kubectl annotate pod my-pod my-annotation- # 删除
2.6 命名空间
前面我们介绍过标签,标签可以给资源分组,但如果没有明确对标签进行选择,那么我们还是默认可以看到所有资源的,如果想将资源分为完全独立且不重叠的组时,可以使用命名空间,在不同的命名空间内,我们可以使用相同的资源名称。资源名称只需要在命名空间内保持唯一即可。
2.6.1 为什么需要命名空间
在使用多个namespace前提下,我们可以将包含大量组件的复杂系统拆分为更小的不同组,这些不同组也可以用于在多租户环境中分配资源,将资源分配为生产、开发和QA环境,或者以其他任何你需要的方式分配资源。可以使用kubectl get ns
查看所有命名空间。默认情况下,我们一直在操作default
命名空间下的资源,如果想查看其他命名空间下的资源,可以使用-n namespace
指定。除了隔离资源,命名空间限制某些用户访问某些资源,还能限制单个用户可用的计算资源数量。
2.6.2 命名空间常用操作
命名空间是和其他资源一样的kubernetes资源,所以可以通过将yaml文件提交到kubernetes API服务器来创建该资源。
apiVersion: v1
kind: Namespace
metadata:
name: custom-namespace
由于namespace资源属性比较简单,所以我们可以直接使用kubectl create namespace name
来进行创建,使用以上yaml文件只是为了强化kubernetes中的所有内容都是一个API对象这一概念。可以通过向API服务器提交YAML manifest
来实现创建、删除、更新和读取。
apiVersion: v1
kind: Pod
metadata:
name: kubia-manual
namespace: custom-namespace # 指定命名空间
spec:
containers:
- image: luksa/kubia
name: kubia
ports:
- containerPort: 8080
protocol: TCP
我们在custom-namespace命名空间中创建了一个pod。但值得注意的是,命名空间实际上不提供对正在运行的对象的任何隔离。不同命名空间的pod是否能通信取决于kubernetes所使用的网络解决方案。
2.7 pod常用操作
按名称删除pod:
kubectl delete po po_name[ pod_name1....]
指示k8s终止pod中所有容器,向进程发送
SIGTERM
信号并等待30s,如果没有正常关闭则发送SIGKILL
终止进程。
按标签删除pod:
kubectl delete po -l key=value
通过删除命名空间来删除pod:
kubectl delete ns ns_name
删除命名空间下所有pod/资源:
kubectl delete po/all --all
有些资源并不包括在all中,需要明确指定出来,如srcret
3 容器生命周期回调
kubernetes为容器提供了生命周期回调。回调使容器能够了解和管理生命周期中的事件,并在执行相应的生命周期回调时运行在处理程序中实现的代码。
目前有两个回调暴露给容器:
PostStart
:这个回调在容器被创建之后立即被执行。但是,不能保证回调会在容器入口点。(ENTRYPOINT)之前执行。没有参数传递给处理程序。PreStop
:在容器因 API 请求或者管理事件(诸如存活态探针、启动探针失败、资源抢占、资源竞争等) 而被终止之前,此回调会被调用。 如果容器已经处于已终止或者已完成状态,则对 preStop 回调的调用将失败。 在用来停止容器的 TERM 信号被发出之前,回调必须执行结束。 Pod 的终止宽限周期在PreStop
回调被执行之前即开始计数, 所以无论回调函数的执行结果如何,容器最终都会在 Pod 的终止宽限期内被终止。 没有参数会被传递给处理程序。
apiVersion: apps/v1
kind: Deployment
metadata:
name: example-deployment
spec:
replicas: 3
template:
metadata:
labels:
app: example
spec:
terminationGracePeriodSeconds: 60 # 设置体面终止限期为 60 秒,默认30s
containers:
- name: example-container
image: nginx
3.1 pod的终止
由于pod所代表的是在集群上节点运行的进程,当不再需要这些进程时允许其体面的终止是很重要的。一般不应该用KILL
信号终止它们,导致这些进程没有机会完成清理操作。
通常 Pod 体面终止的过程为:kubelet 先发送一个带有体面超时限期的 TERM(又名 SIGTERM) 信号到每个容器中的主进程,将请求发送到容器运行时来尝试停止 Pod 中的容器。 停止容器的这些请求由容器运行时以异步方式处理。 这些请求的处理顺序无法被保证。许多容器运行时遵循容器镜像内定义的 STOPSIGNAL
值, 如果不同,则发送容器镜像中配置的 STOPSIGNAL,而不是 TERM 信号。 一旦超出了体面终止限期,容器运行时会向所有剩余进程发送 KILL 信号,之后 Pod 就会被从 API 服务器上移除。 如果 kubelet
或者容器运行时的管理服务在等待进程终止期间被重启, 集群会从头开始重试,赋予 Pod 完整的体面终止限期。
pod终止流程如下:
使用kubelet命令删除pod;
API 服务器中的 Pod 对象被更新,记录涵盖体面终止限期在内 Pod 的最终死期,超出所计算时间点则认为 Pod 已死(dead)。 如果你使用
kubectl describe
来查验你正在删除的 Pod,该 Pod 会显示为 "Terminating" (正在终止)。 在 Pod 运行所在的节点上:kubelet
一旦看到 Pod 被标记为正在终止(已经设置了体面终止限期),kubelet
即开始本地的 Pod 关闭过程。如果Pod中的容器定义了preStop回调,kubelet开始在容器内运行该回调逻辑。如果超出体面终止限期时,proStop回调逻辑仍在运行,kubelet会请求给与该Pod的宽限期增加两秒。
kubelet向容器运行时发送TERM信号给每个容器的进程。pod中的容器会在不同的时间和任意的顺序接收TERM信号,如果Pod 包含一个或多个 Sidecar 容器 (重启策略为 Always 的 Init 容器),kubelet将延迟向这些sidecar容器发送TERM信号,直到最后一个主容器已完全终止。sidecar容器将按照它们在Pod规约中被定义的相反顺序被终止。这确保了sidecar容器继续为pod中的其他容器提供服务,直到不需要为止。
如果超过了宽限期限,pod会进入强制终止阶段,全部容器会在短时间内终止。
在kubelet启动pod的体面关闭逻辑的同时,控制平面会评估是否将关闭的pod从对应的EndpointSlice对象中移除,ReplicaSet和其他工作负载将关闭进程中的pod视为能提供服务的副本。正在终止的pod会把ready设置为false,这样负载均衡就不会将其用于常规流量。
kubelet确保pod被关闭和终止
超出终止宽限期限时,如果Pod中仍有容器运行,kubelet会触发强制关闭过程。容器运行时会向Pod中所有容器中仍在运行的进程发送
SIGKILL
信号。kubelet也会清理隐藏的pause容器kubelet将Pod转换到终止阶段(Failed/Succeeded)
kubelet通过将宽限期限设置为0,触发从API服务器强制移除Pod对象的操作
API服务器删除Pod的API对象
可以通过下面的命令强制删除pod。
kubectl delete po/poname --force --grace-period 0
3.2 pod垃圾回收
对于已经失败(failed)和成功(succeeded)的pod,对应的API对象仍然会保留在集群的API服务器上,直到用户或控制器进程显式的将其删除。
pod的垃圾回收器(PodGC)是控制平台的控制器,它会为pod个数超出所配置的阈值(根据 kube-controller-manager
的 terminated-pod-gc-threshold
设置)时删除已终止的 Pod(阶段值为 Succeeded
或 Failed
)。 这一行为会避免随着时间演进不断创建和终止 Pod 而引起的资源泄露问题。
此外,PodGC 会清理满足以下任一条件的所有 Pod:
孤儿 Pod - 绑定到不再存在的节点
计划外终止的 Pod
3.3 回调处理程序的实现
容器可以通过实现和注册回调的处理程序来访问该回调。目前支持三种类型的回调处理程序:
Exec:在容器执行特定的命令,命令所消耗的资源计入容器的资源消耗。
HTTP:对容器特定端点执行HTTP请求。
Sleep:将容器暂停一段时间。这是由
PodLifecycleSleepAction
特性门控默认启用的 Beta 级特性。
上面的回调程序除了Exec
是在容器里面运行的,其他都是kubelet进程执行的。
回调处理程序调用在包含容器的 Pod 上下文中是同步的。 这意味着对于 PostStart
回调,容器入口点和回调异步触发。 但是,如果回调运行或挂起的时间太长,则容器无法达到 running
状态。但容器实际上还是启动了的。
PreStop
回调并不会与停止容器的信号处理程序异步执行;回调必须在可以发送信号之前完成执行。 如果 PreStop
回调在执行期间停滞不前,Pod 的阶段会变成 Terminating
并且一直处于该状态, 直到其 terminationGracePeriodSeconds
耗尽为止,这时 Pod 会被杀死。 这一宽限期是针对 PreStop
回调的执行时间及容器正常停止时间的总和而言的。 例如,如果 terminationGracePeriodSeconds
是 60,回调函数花了 55 秒钟完成执行, 而容器在收到信号之后花了 10 秒钟来正常结束,那么容器会在其能够正常结束之前即被杀死, 因为 terminationGracePeriodSeconds
的值小于后面两件事情所花费的总时间(55+10)。
如果 PostStart
或 PreStop
回调失败,它会杀死容器。
3.4 回调处理
Hook 处理程序的日志不会在 Pod 事件中公开。如果处理程序由于某种原因失败,它会广播事件。对于PostStart
,这是FailedPostStartHook
事件,对于PreStop
,这是FailedPreStopHook
事件。
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Scheduled 7s default-scheduler Successfully assigned default/lifecycle-demo to ip-XXX-XXX-XX-XX.us-east-2...
Normal Pulled 6s kubelet Successfully pulled image "nginx" in 229.604315ms
Normal Pulling 4s (x2 over 6s) kubelet Pulling image "nginx"
Normal Created 4s (x2 over 5s) kubelet Created container lifecycle-demo-container
Normal Started 4s (x2 over 5s) kubelet Started container lifecycle-demo-container
Warning FailedPostStartHook 4s (x2 over 5s) kubelet Exec lifecycle hook ([badcommand]) for Container "lifecycle-demo-container" in Pod "lifecycle-demo_default(30229739-9651-4e5a-9a32-a8f1688862db)" failed - error: command 'badcommand' exited with 126: , message: "OCI runtime exec failed: exec failed: container_linux.go:380: starting container process caused: exec: \"badcommand\": executable file not found in $PATH: unknown\r\n"
Normal Killing 4s (x2 over 5s) kubelet FailedPostStartHook
Normal Pulled 4s kubelet Successfully pulled image "nginx" in 215.66395ms
Warning BackOff 2s (x2 over 3s) kubelet Back-off restarting failed container
3.5 使用回调函数
apiVersion: v1
kind: Pod
metadata:
name: lifecycle-demo
spec:
containers:
- name: lifecycle-demo-container
image: nginx
lifecycle:
postStart:
#httpGet:
# path: /shutdown
# port: 8080
exec:
command: ["/bin/sh", "-c", "echo Hello from the postStart handler > /usr/share/message"]
preStop:
exec:
command: ["/bin/sh","-c","nginx -s quit; while killall -0 nginx; do sleep 1; done"]
4 init容器
Init 容器是一种特殊容器,在 Pod 内的应用容器启动之前运行。Init 容器可以包括一些应用镜像中不存在的实用工具和安装脚本。
每个pod中可以包含多个容器,应用运行在这些容器里面,同时Pod可以有一个或多个先于应用容器启动的Init容器。
Init容器与应用容器非常像,除了以下两点:
它们总是运行到完成。
每个都必须在下一个启动之前成功完成。 如果 Pod 的 Init 容器失败,kubelet 会不断地重启该 Init 容器直到该容器成功为止。 然而,如果 Pod 对应的
restartPolicy
值为 "Never",并且 Pod 的 Init 容器失败, 则 Kubernetes 会将整个 Pod 状态设置为失败。
Init 容器支持应用容器的全部字段和特性,包括资源限制、 数据卷和安全设置。 然而,Init 容器对资源请求和限制的处理稍有不同,常规的 Init 容器(即不包括边车容器)不支持 lifecycle
、livenessProbe
、readinessProbe
或 startupProbe
字段。Init 容器必须在 Pod 准备就绪之前完成运行;而边车容器在 Pod 的生命周期内继续运行, 它支持一些探针。
如果为一个 Pod 指定了多个 Init 容器,这些容器会按顺序逐个运行。 每个 Init 容器必须运行成功,下一个才能够运行。当所有的 Init 容器运行完成时, Kubernetes 才会为 Pod 初始化应用容器并像平常一样运行。
4.1 使用Init容器
Init 容器具有与应用容器分离的单独镜像,其启动相关代码具有如下优势:
- Init 容器可以包含一些安装过程中应用容器中不存在的实用工具或个性化代码。 例如,没有必要仅为了在安装过程中使用类似 sed
、awk
、python
或 dig
这样的工具而去 FROM
一个镜像来生成一个新的镜像。
- 应用镜像的创建者和部署者可以各自独立工作,而没有必要联合构建一个单独的应用镜像。
与同一 Pod 中的多个应用容器相比,Init 容器能以不同的文件系统视图运行,Init 容器的文件系统不会与应用容器共享,除非显式地通过卷(Volumes)进行共享。。因此,Init 容器可以被赋予访问应用容器不能访问的 Secret的权限。
由于 Init 容器必须在应用容器启动之前运行完成,因此 Init 容器提供了一种机制来阻塞或延迟应用容器的启动,直到满足了一组先决条件。 一旦前置条件满足,Pod 内的所有的应用容器会并行启动。
Init 容器可以安全地运行实用程序或自定义代码,而在其他方式下运行这些实用程序或自定义代码可能会降低应用容器镜像的安全性。 通过将不必要的工具分开,你可以限制应用容器镜像的被攻击范围。
使用Init容器示例 以下是一些如何使用Init容器的想法:
等待一个 Service 完成创建,通过类似如下 Shell 命令:
for i in {1..100}; do sleep 1; if nslookup myservice; then exit 0; fi; done; exit 1
注册这个 Pod 到远程服务器,通过在命令中调用 API,类似如下:
curl -X POST http://$MANAGEMENT_SERVICE_HOST:$MANAGEMENT_SERVICE_PORT/register -d 'instance=$(<POD_NAME>)&ip=$(<POD_IP>)'
在启动应用容器之前等一段时间,使用类似命令:
sleep 60
克隆git仓库到卷中。
将配置值放到配置文件中,运行模板工具为主应用容器动态地生成配置文件。 例如,在配置文件中存放
POD_IP
值,并使用 Jinja 生成主应用配置文件。
使用init容器
下面的例子定义了一个具有 2 个 Init 容器的简单 Pod。 第一个等待 myservice
启动, 第二个等待 mydb
启动。 一旦这两个 Init 容器都启动完成,Pod 将启动 spec
节中的应用容器。
apiVersion: v1
kind: Pod
metadata:
name: myapp-pod
labels:
app.kubernetes.io/name: MyApp
spec:
containers:
- name: myapp-container
image: busybox:1.28
command: ['sh', '-c', 'echo The app is running! && sleep 3600']
initContainers:
- name: init-myservice
image: busybox:1.28
command: ['sh', '-c', "until nslookup myservice.$(cat /var/run/secrets/kubernetes.io/serviceaccount/namespace).svc.cluster.local; do echo waiting for myservice; sleep 2; done"]
- name: init-mydb
image: busybox:1.28
command: ['sh', '-c', "until nslookup mydb.$(cat /var/run/secrets/kubernetes.io/serviceaccount/namespace).svc.cluster.local; do echo waiting for mydb; sleep 2; done"]
具体行为
在 Pod 启动过程中,每个 Init 容器会在网络和数据卷初始化之后按顺序启动。 kubelet 运行依据 Init 容器在 Pod 规约中的出现顺序依次运行之。
每个 Init 容器成功退出后才会启动下一个 Init 容器。 如果某容器因为容器运行时的原因无法启动,或以错误状态退出,kubelet 会根据 Pod 的 restartPolicy
策略进行重试。 然而,如果 Pod 的 restartPolicy
设置为 "Always",Init 容器失败时会使用 restartPolicy
的 "OnFailure" 策略。
在所有的 Init 容器没有成功之前,Pod 将不会变成 Ready
状态。 Init 容器的端口将不会在 Service 中进行聚集。正在初始化中的 Pod 处于 Pending
状态, 但会将状况 Initializing
设置为 false。
如果 Pod 重启,所有 Init 容器必须重新执行。
对 Init 容器规约的修改仅限于容器的 image
字段。 更改 Init 容器的 image
字段,等同于重启该 Pod。Pod一旦被创建,spec就不能修改了。
因为 Init 容器可能会被重启、重试或者重新执行,所以 Init 容器的代码应该是幂等的。 特别地,基于 emptyDirs
写文件的代码,应该对输出文件可能已经存在做好准备。
Init 容器具有应用容器的所有字段。然而 Kubernetes 禁止使用 readinessProbe
, 因为 Init 容器不能定义不同于完成态(Completion)的就绪态(Readiness)。 Kubernetes 会在校验时强制执行此检查。
在 Pod 上使用 activeDeadlineSeconds
和在容器上使用 livenessProbe
可以避免 Init 容器一直重复失败。 activeDeadlineSeconds
时间包含了 Init 容器启动的时间。 但建议仅在团队将其应用程序部署为 Job 时才使用 activeDeadlineSeconds
, 因为 activeDeadlineSeconds
在 Init 容器结束后仍有效果。 如果你设置了 activeDeadlineSeconds
,已经在正常运行的 Pod 会被杀死。
在 Pod 中的每个应用容器和 Init 容器的名称必须唯一; 与任何其它容器共享同一个名称,会在校验时抛出错误。
容器内的资源共享
在给定的 Init、边车和应用容器执行顺序下,资源使用适用于如下规则:
所有 Init 容器上定义的任何特定资源的 limit 或 request 的最大值,作为 Pod 有效初始 request/limit。 如果任何资源没有指定资源限制,这被视为最高限制。
Pod 对资源的 有效 limit/request 是如下两者中的较大者:
所有应用容器对某个资源的 limit/request 之和
对某个资源的有效初始 limit/request
基于有效 limit/request 完成调度,这意味着 Init 容器能够为初始化过程预留资源, 这些资源在 Pod 生命周期过程中并没有被使用。
Pod 的 有效 QoS 层,与 Init 容器和应用容器的一样。
sidecar
边车容器是与主应用容器在同一个 Pod中运行的辅助容器。 这些容器通过提供额外的服务或功能(如日志记录、监控、安全性或数据同步)来增强或扩展主应用容器的功能, 而无需直接修改主应用代码。
通常,一个 Pod 中只有一个应用程序容器。 例如,如果你有一个需要本地 Web 服务器的 Web 应用程序, 则本地 Web 服务器以边车容器形式运行,而 Web 应用本身以应用容器形式运行。
在1.29之前,边车容器指的是在pod中运行两个容器,让其中一个容器来为另一个容器提供服务。除非开启SidecarContainers
特性门控,让init容器可以指定restartPolicy
。但在1.29之后,Kubernetes 将边车容器作为 Init 容器的一个特例来实现, Pod 启动后,边车容器仍保持运行状态。SidecarContainers
特性门控默认开启。
apiVersion: apps/v1
kind: Deployment
metadata:
name: myapp
labels:
app: myapp
spec:
replicas: 1
selector:
matchLabels:
app: myapp
template:
metadata:
labels:
app: myapp
spec:
containers:
- name: myapp
image: alpine:latest
command: ['sh', '-c', 'echo "logging" > /opt/logs.txt']
volumeMounts:
- name: data
mountPath: /opt
initContainers:
- name: logshipper
image: alpine:latest
restartPolicy: Always
command: ['sh', '-c', 'tail /opt/logs.txt']
volumeMounts:
- name: data
mountPath: /opt
volumes:
- name: data
emptyDir: {}
生命周期
如果创建 Init 容器时将 restartPolicy
设置为 Always
, 则它将在整个 Pod 的生命周期内启动并持续运行。这对于运行与主应用容器分离的支持服务非常有帮助。
如果为此 Init 容器指定了 readinessProbe
,其结果将用于确定 Pod 的 ready
状态。
由于这些容器被定义为 Init 容器,所以它们享有与其他 Init 容器相同的顺序和按序执行保证, 从而允许将边车容器与常规 Init 容器混合使用,支持复杂的 Pod 初始化流程。
带边车容器的job
如果你定义 Job 时使用基于 Kubernetes 风格 Init 容器的边车容器, 各个 Pod 中的边车容器不会阻止 Job 在主容器结束后进入完成状态。
apiVersion: batch/v1
kind: Job
metadata:
name: myjob
spec:
template:
spec:
containers:
- name: myjob
image: alpine:latest
command: ['sh', '-c', 'echo "logging" > /opt/logs.txt']
volumeMounts:
- name: data
mountPath: /opt
initContainers:
- name: logshipper
image: alpine:latest
restartPolicy: Always
command: ['sh', '-c', 'tail /opt/logs.txt']
volumeMounts:
- name: data
mountPath: /opt
restartPolicy: Never
volumes:
- name: data
emptyDir: {}
与init容器的区别
边车容器与主容器并行工作,扩展其功能并提供附加服务。
边车容器与主应用容器同时运行。它们在整个 Pod 的生命周期中都处于活动状态,并且可以独立于主容器启动和停止。 与 Init 容器不同, 边车容器支持探针来控制其生命周期。
边车容器可以直接与主应用容器交互,因为与 Init 容器一样, 它们总是与应用容器共享相同的网络,并且还可以选择共享卷(文件系统)。
Init 容器在主容器启动之前停止,因此 Init 容器无法与 Pod 中的应用程序容器交换消息。 所有数据传递都是单向的(例如,Init 容器可以将信息放入 emptyDir
卷中)。
容器内资源共享
假如执行顺序为 Init 容器、边车容器和应用容器,则关于资源用量适用以下规则:
所有 Init 容器上定义的任何特定资源的 limit 或 request 的最大值,作为 Pod 有效初始 request/limit。 如果任何资源没有指定资源限制,则被视为最高限制。
Pod 对资源的 有效 limit/request 是如下两者中的较大者:
所有应用容器对某个资源的 limit/request 之和
Init 容器中对某个资源的有效 limit/request
系统基于有效的 limit/request 完成调度,这意味着 Init 容器能够为初始化过程预留资源, 而这些资源在 Pod 的生命周期中不再被使用。
Pod 的 有效 QoS 级别,对于 Init 容器和应用容器而言是相同的。
配额和限制适用于 Pod 的有效请求和限制值
最后更新于