LXCFS简介
社区中常见的做法是利用lxcfs来提供容器中的资源可见性。lxcfs 是一个开源的FUSE(用户态文件系统)实现来支持LXC容器,它也可以支持Docker容器。
LXCFS通过用户态文件系统,在容器中提供下列 procfs
的文件。
1 | /proc/cpuinfo |
比如,把宿主机的 /var/lib/lxcfs/proc/memoinfo
文件挂载到Docker容器的/proc/meminfo
位置后。容器中进程读取相应文件内容时,LXCFS的FUSE实现会从容器对应的Cgroup中读取正确的内存限制。从而使得应用获得正确的资源约束设定。
Docker环境下LXCFS使用
安装 lxcfs 的RPM包
1 | wget https://copr-be.cloud.fedoraproject.org/results/ganto/lxd/epel-7-x86_64/00486278-lxcfs/lxcfs-2.0.5-3.el7.centos.x86_64.rpm |
启动 lxcfs
1 | lxcfs /var/lib/lxcfs & |
测试
1 | docker run -it -m 256m \ |
结果
1 | [root@node1 ~]# docker run -it -m 256m \ |
我们可以看到total的内存为256MB,配置已经生效。
lxcfs 的 Kubernetes实践
在kubernetes中使用lxcfs需要解决两个问题:
第一个问题是每个node上都要启动lxcfs,这个简单,部署一个daemonset就可以了。
第二个问题是将lxcfs维护的/proc文件挂载到每个容器中
在集群节点上安装并启动lxcfs,我们将用Kubernetes的方式,用利用容器和DaemonSet方式来运行 lxcfs FUSE文件系统。
1 | git clone https://github.com/denverdino/lxcfs-initializer |
lxcfs-daemonset
1 | apiVersion: apps/v1beta2 |
1 | kubectl apply -f lxcfs-daemonset.yaml |
Kubernetes提供了 Initializer 扩展机制,可以用于对资源创建进行拦截和注入处理,我们可以借助它优雅地完成对lxcfs文件的自动化挂载。
lxcfs-initializer
Initializer功能开启
在Kubernetes 1.13中initializers还是一个alpha特性,需要在Kube-apiserver中添加参数开启。
这里使用的是kubernets 1.12,设置方法是一样的:
1 | --enable-admission-plugins="Initializers,NamespaceLifecycle,NamespaceExists,LimitRanger,SecurityContextDeny,ServiceAccount,ResourceQuota" |
--enable-admission-plugins
和--admission-control
互斥,如果同时设置,kube-apiserver启动报错:
1 | error: [admission-control and enable-admission-plugins/disable-admission-plugins flags are mutually exclusive, |
InitializerConfiguration
InitializerConfiguration
资源中定义了一组的initializers
。
每个initializer有一个名字和多个规则,规则中是它要作用的资源,例如下面的initializers中只有一个initializer,名称为podimage.example.com
,作用于v1版本的pods。
1 | apiVersion: admissionregistration.k8s.io/v1alpha1 |
在kubernets中创建了上面的initializers之后,新建的pod在pending阶段,metadata中会添加一个initializer列表:
1 | metadata: |
注意需要加上参数--include-uninitialized=true
才能看到处于这个阶段的Pod:
1 | ./kubectl.sh -n demo-echo get pod --include-uninitialized=true -o yaml |
metadata中initializers
列表不为空的Pod,处于正在等待初始化状态,需要部署一个initializer controller
对处于这个阶段中的pod完成初始化后, pod才能退出pending状态。。
initializer controller需要自己根据需要实现。
Initializer Controller
initializer controller监听指定类型的resource,当发现有新创建的resouce创建时,通过检查resource的metadata中的initializer名单,决定是否要对resource进行初始化设置,并且在完成设置之后,需要将对应的initializer名单从resource的metadata中删除,否则resource就一直处于等待初始化设置的状态。
具体实现可以参考lxcfs-initializer。
如果有多个InitializerConfiguration和多个Initializer Controller,会怎样?
没有在文档中找到具体的说明,k8s的文档中Initializer章节的内容很少,这里通过实验,判断一下。
创建了两个不同名的但是包含相同rule的InitializerConfiguration:
1 | apiVersion: admissionregistration.k8s.io/v1alpha1 |
1 | apiVersion: admissionregistration.k8s.io/v1alpha1 |
Pod中的metadata是这样的:
1 | metadata: |
之后又通过调整InitializerConfiguration的名称排序、创建的先后顺序、内部的rules的顺序,多次试验之后发现,多个InitializerConfiguration
的在metadata中是按照它们的名称排序
的,和创建时间无关。
每个InitializerConfiguration中的rules
在metadata中顺序与它们定义的顺序
一致。
根据lxcfs-initializer的实现以及k8s的文档,Initializer Controller对目标Resource完成设置之后,需要从metadata中移除对应的Initializer。
如果定义了多个Initializer,并且有多个Initializer Controller各自负责不同的Initializer,这时候需要小心设计,既要防止“漏掉”应当处理的Resource,导致Resource长期不落地,又要防止已经被删除的Initializer又被重新写上了,重复处理时出现错误。
根据现在掌握的信息,目前比较稳妥的做法是,将多个Initializer设计为顺序无关,谁先执行都可以,否则只有创建一个InitializerConfiguration,rules的顺序就是Initiliazer的顺序。只设计一个Initializer Controller,或者将多个Initializer Controller设计成串行执行,让它们监测Resource的创建和变化,不仅仅是刚创建,否则一些Initializer可能被漏掉。
lxcfs-initializer这个Initializer只关心ADD
事件,如果同时有其它的Initializer Controller存在,可能会漏掉一些Resource。
1 | _, controller := cache.NewInformer(includeUninitializedWatchlist, &v1.Deployment{}, resyncPeriod, |
实例:
1 | apiVersion: rbac.authorization.k8s.io/v1 |
首先我们创建了service account lxcfs-initializer-service-account
,并对其授权了 “pod” 资源的查找、更改等权限。然后我们部署了一个名为 “lxcfs-initializer” 的Initializer,利用上述SA启动一个容器来处理对 “pod” 资源的创建,如果deployment中包含 initializer.kubernetes.io/lxcfs
为true
的注释,就会对该应用中容器进行文件挂载
1 | kubectl apply -f lxcfs-initializer.yaml |
下面我们部署一个简单的Apache应用
为其分配256MB内存,并且声明了如下注释 "initializer.kubernetes.io/lxcfs": "true"
web.yaml:
1 | apiVersion: apps/v1 |
1 | kubectl apply -f web.yaml |
验证
1 | kubectl exec web-7f6bc6797c-rb9sk free |
注意:
如果自己的k8s版本跟我的不一样,可以kubectl api-versions看看版本