lxcfs 实现在容器内显示容器的 CPU、内存状态

Tags: docker 

目录

说明

容器中的 top/free/df 等命令,展示的状态信息是从 /proc 目录中的相关文件里读取出来的,容器内的 /proc 默认是宿主机的 /proc 相同,所以在容器内部看到的都是宿主机的状态。

/proc/cpuinfo
/proc/diskstats
/proc/meminfo
/proc/stat
/proc/swaps
/proc/uptime

LXCFS(FUSE filesystem for LXC) 是一个常驻服务,它启动以后会在指定目录中自行维护与上面列出的 /proc 目录中的文件同名的文件,容器从 lxcfs 维护的 /proc 文件中读取数据时,得到的是容器的状态数据而不是整个宿主机的状态。

安装

yum 安装

wget https://copr-be.cloud.fedoraproject.org/results/ganto/lxd/epel-7-x86_64/00486278-lxcfs/lxcfs-2.0.5-3.el7.centos.x86_64.rpm
yum install lxcfs-2.0.5-3.el7.centos.x86_64.rpm  

编译安装

也可以自己编译,需要提前安装fuse-devel:

yum install -y fuse-devel

下载代码编译,bootstrap.sh执行结束后,会在生成configure等文件,编译安装方法在INSTALL文件中:

git clone https://github.com/lxc/lxcfs.git
cd lxcfs
git checkout lxcfs-3.0.3

./bootstrap.sh
./configure --prefix=/
make
make install

如果要调试,可以设置为DEBUG模式:

CFLAGS="-O0 -DDEBUG"  ./configure --prefix=/data/lxcfs/lxcfs_install/

可以用下面的方法启动:

/etc/init.d/lxcfs start

/etc/init.d/lxcfs 这个启动脚本比较古老,在 CentOS7 上运行可能会遇到下面的问题:

/etc/init.d/lxcfs: line 20: /lib/lsb/init-functions: No such file or directory
/etc/init.d/lxcfs: line 29: init_is_upstart: command not found

lxcfs 命令用法很简单,只有三个参数。自己写一个 systemd 文件,通过 systemd 启动。

$ lxcfs -h
Usage:

lxcfs [-f|-d] [-p pidfile] mountpoint
  -f running foreground by default; -d enable debug output
  Default pidfile is /run/lxcfs.pid
lxcfs -h

lxcfs.service:

cat > /usr/lib/systemd/system/lxcfs.service <<EOF
[Unit]
Description=lxcfs

[Service]
ExecStart=/usr/bin/lxcfs -f /var/lib/lxcfs
Restart=on-failure
#ExecReload=/bin/kill -s SIGHUP $MAINPID

[Install]
WantedBy=multi-user.target
EOF

启动:

systemctl daemon-reload
systemctl start lxcfs

使用

用前面的 systemctl 命令启动,或者在宿主机上直接运行 lxcfs,确保 lxcfs 处于运行状态。

查看容器内存状态

启动一个容器,用 lxcfs 维护的 /proc 文件替换容器中的 /proc 文件,容器内存设置为 256M:

docker run -it -m 256m \
      -v /var/lib/lxcfs/proc/cpuinfo:/proc/cpuinfo:rw \
      -v /var/lib/lxcfs/proc/diskstats:/proc/diskstats:rw \
      -v /var/lib/lxcfs/proc/meminfo:/proc/meminfo:rw \
      -v /var/lib/lxcfs/proc/stat:/proc/stat:rw \
      -v /var/lib/lxcfs/proc/swaps:/proc/swaps:rw \
      -v /var/lib/lxcfs/proc/uptime:/proc/uptime:rw \
      ubuntu:latest /bin/bash

在容器内看到内存大小是256M:

$ free -h
              total        used        free      shared  buff/cache   available
Mem:           256M        1.2M        254M        6.1M        312K        254M
Swap:          256M          0B        256M

注意:如果是 alpine 镜像看到的还是宿主机的内存状态,alpine 中的free 似乎是通过其它渠道获得内存状态的。

查看容器 CPU 状态

容器的 CPU 设置有两种方式,一个是 --cpus 2,限定容器最多只能使用两个逻辑CPU,另一个是 --cpuset-cpus "0,1",限定容器可以使用的宿主机 CPU 0 和 CPU 1。

top 命令显示的是容器 可以使用的 宿主机cpu,使用--cpuset-cpus "0,1"的时候,在容器看到cpu个数是 --cpuset 指定的cpu的个数。 但是如果使用--cpus 2,看到的 cpu 个数是宿主机的 cpu 个数(这个问题已经解决,见 Lxcfs根据cpu-share、cpu-quota等cgroup信息生成容器内的/proc文件(下))

docker run -it --rm -m 256m  --cpus 2 --cpuset-cpus "0,1" \
      -v /var/lib/lxcfs/proc/cpuinfo:/proc/cpuinfo:rw \
      -v /var/lib/lxcfs/proc/diskstats:/proc/diskstats:rw \
      -v /var/lib/lxcfs/proc/meminfo:/proc/meminfo:rw \
      -v /var/lib/lxcfs/proc/stat:/proc/stat:rw \
      -v /var/lib/lxcfs/proc/swaps:/proc/swaps:rw \
      -v /var/lib/lxcfs/proc/uptime:/proc/uptime:rw \
      ubuntu:latest /bin/sh

这时候在容器内看到的CPU个数是2个:

$ top
top - 07:30:32 up 0 min,  0 users,  load average: 0.03, 0.09, 0.13
Tasks:   2 total,   1 running,   1 sleeping,   0 stopped,   0 zombie
%Cpu0  :  0.6 us,  0.6 sy,  0.0 ni, 98.7 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
%Cpu1  :  0.6 us,  0.0 sy,  0.0 ni, 99.4 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st

根据 cpu-share 和 cpu-quota 显示 cpu 信息的问题在Does lxcfs have plans to support cpu-shares and cpu-quota?中有讨论。aither64 修改lxcfs的实现,实现了按照 cpu 的配额计算应该展现的 cpu 的数量:

Yes, I have it implemented, but I haven’t gotten around to cleaning it up and making a PR yet. It works with CPU quotas set e.g. using lxc.cgroup.cpu.cfs_{quota,period}_us, CPU shares didn’t make sense to me.

lxc/lxcfs 的 master 分支已经合入了 aither64 的修改,stable-3.0 和 stable-2.0 分支没有合入:Merge pull request #260 from aither64/cpu-views ,参考 lxcfs的实现学习(源码分析)

注意:在容器中用 uptime 看到的系统运行时间是容器的运行时间,但是展示的 load 还是宿主机的 load。

注意:在容器内看到的 CPU 使用率依然是宿主机上的 CPU 的使用率! 这个功能似乎有点鸡肋。

在 kubernetes 中使用 lxcfs

在kubernetes中使用lxcfs需要解决两个问题:

开启 initializers 功能

initializers 的工作过程见 Kubernetes initializer功能的使用方法:在Pod落地前修改Pod

在Kubernetes 1.13中 initializers 还是一个 alpha 特性,需要在 Kube-apiserver 中添加参数开启。

这里使用的是 kubernetes 1.12,设置方法是一样的:

--enable-admission-plugins="Initializers,NamespaceLifecycle,NamespaceExists,LimitRanger,SecurityContextDeny,ServiceAccount,ResourceQuota"
--runtime-config=admissionregistration.k8s.io/v1alpha1

--enable-admission-plugins--admission-control互斥,同时设置,kube-apiserver 启动报错:

error: [admission-control and enable-admission-plugins/disable-admission-plugins flags are mutually exclusive, 
enable-admission-plugins plugin "--runtime-config=admissionregistration.k8s.io/v1alpha1" is unknown]

initializer controller的实现

github有一个例子:lxcfs-initializer

参考

  1. Kubernetes之路 2 - 利用LXCFS提升容器资源可见性
  2. FUSE filesystem for LXC
  3. Kubernetes Initializers
  4. Kubernetes initializer功能的使用方法:在Pod落地前修改Pod
  5. lxcfs-initializer
  6. 修改lxcfs,根据cpu-share和cpu-quota生成容器的cpu状态文件(一):lxcfs的实现学习(源码分析)

推荐阅读

Copyright @2011-2019 All rights reserved. 转载请添加原文连接,合作请加微信lijiaocn或者发送邮件: [email protected],备注网站合作

友情链接:  系统软件  程序语言  运营经验  水库文集  网络课程  微信网文  发现知识星球