查看原文
其他

记一次Kubernetes/Docker网络排障 | Pod被无故重启上千次

左耳朵耗子 K8S中文社区 2019-12-18

昨天周五晚上,临下班的时候,用户给我们报了一个比较怪异的Kubernetes集群下的网络不能正常访问的问题,让我们帮助查看一下,我们从下午5点半左右一直跟进到晚上十点左右,在远程不能访问用户机器只能远程遥控用户的情况找到了的问题。这个问题比较有意思,我个人觉得其中的调查用到的的命令以及排障的一些方法可以分享一下,所以写下了这篇文章。

问题的症状

用户直接在微信里说,他们发现在Kuberbnetes下的某个pod被重启了几百次甚至上千次,于是开启调查这个pod,发现上面的服务时而能够访问,时而不能访问,也就是有一定概率不能访问,不知道是什么原因。而且并不是所有的pod出问题,而只是特定的一两个pod出了网络访问的问题。用户说这个pod运行着Java程序,为了排除是Java的问题,用户用docker exec -it 命令直接到容器内启了一个 Python的 SimpleHttpServer来测试发现也是一样的问题。

我们大概知道用户的集群是这样的版本,Kuberbnetes 是1.7,网络用的是flannel的gw模式,Docker版本未知,操作系统CentOS 7.4,直接在物理机上跑docker,物理的配置很高,512GB内存,若干CPU核,上面运行着几百个Docker容器。

问题的排查

问题初查

首先,我们排除了flannel的问题,因为整个集群的网络通信都正常,只有特定的某一两个pod有问题。而用telnet ip port 的命令手工测试网络连接时有很大的概率出现connection refused 错误,大约 1/4的概率,而3/4的情况下是可以正常连接的。

当时,我们让用户抓个包看看,然后,用户抓到了有问题的TCP连接是收到了SYN 后,立即返回了RST, ACK

我问一下用户这两个IP所在的位置,我们知道了,10.233.14.129 是docker010.233.14.145 是容器内的IP。所以,这基本上可以排除了所有和kubernets或是flannel的问题,这就是本地的Docker上的网络的问题。

对于这样的情况,在telnet上会显示connection refused 的错误信息,对于我个人的经验,这种SYN完直接返回RST, ACK的情况只会有三种情况:

  1. TCP链接不能建立,绝大多数情况都是服务端没有相关的端口号

  2. TCP链接建错误,有可能是因为修改了TCP参数

  3. 有防火墙iptables的设置

因为当时还在开车,在等红灯的时候,我感觉到有点像 NAT 的网络中服务端开启了tcp_tw_recycle 和tcp_tw_reuse 的症况(详细参看《TCP的那些事(上)》),所以,让用户查看了一上TCP参数,发现用户一个TCP的参数都没有改,全是默认的,于是我们排除了TCP参数的问题。

然后,我也不觉得容器内还会设置上iptables,所以,我怀疑容器内的端口号没有侦听上,但是马上又好了,这可能会是应用的问题。于是我让用户那边看一下,应用的日志,并用kublet describe看一下运行的情况,并把宿主机的 iptables 看一下。

然而,我们发现并没有任何的问题。这时,我们失去了所有的调查线索,感觉不能继续下去了……

重新梳理

这个时候,回到家,大家吃完饭,和用户通了一个电话,把所有的细节再重新梳理了一遍,这个时候,用户提供了一个比较关键的信息—— “抓包这个事,在docker0 上可以抓到,然而到了容器内抓不到容器返回RST, ACK” !然而,根据我的知识,我知道在docker0和容器内的veth网卡上,中间再也没有什么网络设备了(参看《Docker基础技术:LINUX NAMESPACE(下)》)!

于是这个事把我们逼到了最后一种情况 —— IP地址冲突了!

Linux下看IP地址冲突还不是一件比较简单事的,而在用户的生产环境下没有办法安装一些其它的命令,所以只能用已有的命令,这个时候,我们发现用户的机器上有arping 于是我们用这个命令来检测有没有冲突的IP地址。使用了下面的命令:

$ arping -D -I docker0 -c 2 10.233.14.145
echo$?

因为客户那边还在处理一些别的事情,所以,我们在时断时续的情况下工作,而还一些工作都需要用户完成,所以,进展有点缓慢,但是也给我们一些时间思考问题。根据文档,-D 参数是检测IP地址冲突模式,如果这个命令的退状态是0 那么就有冲突。结果返回了1 。而且,我们用arping IP的时候,没有发现不同的mac地址。 这个时候,似乎问题的线索又断了

柳暗花明

现在我们知道,IP冲突的可能性是非常大的,但是我们找不出来是和谁的IP冲突了。而且,我们知道只要把这台机器重启一下,问题一定就解决掉了,但是我们觉得这并不是解决问题的方式,因为重启机器可以暂时的解决掉到这个问题,而如果我们不知道这个问题怎么发生的,那么未来这个问题还会再来。而重启线上机器这个成本太高了。

于是,我们的好奇心驱使我们继续调查。我让用户kubectl delete 其中两个有问题的pod,因为本来就服务不断重启,所以,删掉也没有什么问题。删掉这两个pod后(一个是IP为10.233.14.145 另一个是10.233.14.137),我们发现,kubernetes,在其它机器上重新启到了这两个服务的实例。然而,在问题机器上,这两个IP地址居然还可以ping得通

好了,IP地址冲突的问题可以确认了。因为10.233.14.xxx 这个网段是docker 的,所以,这个IP地址一定是在这台机器上。所以,我们想看看所有的 network namespace 下的 veth 网卡上的IP。

在这个事上,我们费了点时间。

  • 首先,我们到/var/run/netns目录下查看系统的network namespace,发现没有。

  • 然后,我们到 /var/run/docker/netns 目录下查看Docker的namespace,发现有好些。

  • 于是,我们用指定位置的方式查看Docker的network namespace里的IP地址


$ls/var/run/docker/netns|xargs-I {} nsenter --net=/var/run/docker/netns/{} ip addr

10.233.14.145我们查到了,docker的namespace下还有这个IP。我们发现了比较诡异的事情。

  • 10.233.14.137,这个IP没有在docker的network namespace下查到。

于是我上网查了一下,发现了一个docker的bug – 在docker remove/stop 一个容器的时候,没有清除相应的network namespace,这个问题被报告到了 Issue#31597 然后被fix在了 PR#31996,并Merge到了 Docker的 17.05版中。而用户的版本是 17.09,应该包含了这个fix。

要查看所有network namespace,只有最后一条路了,那就是到/proc/ 目录下,把所有的pid下的/proc/<pid>/ns 目录给穷举出来。好在这里有一个比较方便的命令可以干这个事 –lsns

于是我写下了如下的命令:

$ lsns -t net |awk‘{print $4}' |xargs-t -I {} nsenter -t {} -n ip addr |grep-C 4"10.233.14.137"

lsns -t net 列出所有开了network namespace的进程,其每4列是进程PID解释一下。

  • 把所有开过network namespace的进程PID拿出来,转给xargs 命令

  • xargs命令把这些PID 依次传给nsenter命令,

    • xargs -t 的意思是会把相关的执行命令打出来,这样我知道是那个PID。

    • xargs -I {} 是声明一个占位符来替换相关的PID

最后,我们发现,虽然在/var/run/docker/netns 下没有找到10.233.14.137 ,但是在lsns 中找到了三个进程,其用了10.233.14.137 这个IP,而且他们的MAC地址全是一样的!冲突了这么多。通过ps 命令,可以查到这三个进程,有两个是java的,还有一个是/pause (这个应该是kubernetes的沙盒)。

我们继续乘胜追击,穷追猛打,用pstree命令把整个进程树打出来。发现上述的三个进程的父进程都在多个同样叫docker-contiane 的进程下!

这明显还是docker的,但是在docker ps中却找不道相应的容器,什么鬼!我快崩溃了……

继续看进程树,发现,这些docker-contiane 的进程的父进程不在dockerd 下面,而是在systemd这个超级父进程PID 1下,我靠!进而发现了一堆这样的野进程(这种野进程或是僵尸进程对系统是有害的,至少也是会让系统进入亚健康的状态,因为他们还在占着资源)。

docker-contiane 应该是dockerd 的子进程,被挂到了pid 1 只有一个原因,那就是父进程“飞”掉了,只能找 pid 1 当养父。这说明,这台机器上出现了比较严重的dockerd 进程退出的问题,而且是非常规的,因为systemd 之所以要成为 pid 1,其就是要监管所有进程的子子孙孙,居然也没有管理好,说明是个非常规的。(注,关于 systemd,请参看《Linux PID 1 和 Systemd 》,关于父子进程的事,请参看《Unix高级环境编程》一书)

接下来就要看看systemddockerd记录的日志了……

总结

通过这个调查,可以总结一下,

1) 对于问题调查,需要比较扎实的基础知识,知道问题的成因和范围。

2)如果走不下去了,要生新梳理,回头看一下过的一些蛛丝马迹,但认真推敲每一个细节。

3) 各种诊断工具要比较熟悉,这会让你事半功倍。

4)系统维护和做清洁比较类似,你需要经党看看系统中是否有一些僵尸进程或是一些垃圾东西,这些东西要及时清理掉。

最后,多说一下,很多人都说,Docker适合放在物理机内运行,这并不完全对,因为他们只考虑到了性能成本,没有考虑到运维成本,在这样512GB中启动几百个容器的玩法,其实并不好,因为这本质上是个大单体,因为你一理要重启某些关键进程或是机器,你的影响面是巨大的

——— 更新 2018/12/10 ———

问题原因

这两天在自己的环境下测试了一下,发现,只要是通过 systemctl start/stop docker 这样的命令来启停 Docker, 是可以把所有的进程和资源全部干掉的。这个是没有什么问题的。我唯一能重现用户问题的的操作就是直接 kill -9 <dockerd pid> 但是这个事用户应该不会干。而 Docker 如果有 crash 事件时,Systemd 是可以通过 journalctl -u docker 这样的命令查看相关的系统日志的。


于是,我找用户了解一下他们在Docker在启停时的问题,用户说,他们的执行 systemctl stop docker 这个命令的时候,发现这个命令不响应了,有可能就直接按了 Ctrl +C 了!


这个应该就是导致大量的 docker-containe 进程挂到 PID 1 下的原因了。前面说过,用户的一台物理机上运行着上百个容器,所以,那个进程树也是非常庞大的,我想,停服的时候,系统一定是要遍历所有的docker子进程来一个一个发退出信号的,这个过程可能会非常的长。导致操作员以为命令假死,而直接按了 Ctrl + C ,最后导致很多容器进程并没有终止……

其它事项


有同学问,为什么我在这个文章里写的是 docker-containe 而不是 containd 进程?这是因为,前着是 yum install  安装CentOS系统 rpm 包而来的,后者是安装 Docker 发布的安装 rpm 包而来的。


下面是这两种不同安装包的进程树的差别(其中 sleep 是我用 buybox 镜像启动的)


CENTOS 系统安装包

  1. systemd───dockerd─┬─docker-containe─┬─3*[docker-containe─┬─sleep]

  2.                  │                 │                    └─9*[{docker-containe}]]

  3.                  │                 ├─docker-containe─┬─sleep

  4.                  │                 │                 └─10*[{docker-containe}]

  5.                  │                 └─14*[{docker-containe}]

  6.                  └─17*[{dockerd}]

DOCKER 官方安装包

  1. systemd───dockerd─┬─containerd─┬─3*[containerd-shim─┬─sleep]

  2.                  │            │                 └─9*[{containerd-shim}]

  3.                  │            ├─2*[containerd-shim─┬─sleep]

  4.                  │            │                    └─9*[{containerd-shim}]]

  5.                  │            └─11*[{containerd}]

  6.                  └─10*[{dockerd}]


顺便说一下,自从 Docker 1.11版以后,Docker进程组模型就改成上面这个样子了.

  • dockerd 是 Docker Engine守护进程,直接面向操作用户。dockerd 启动时会启动 containerd 子进程,他们之前通过RPC进行通信。

  • containerd 是dockerd和runc之间的一个中间交流组件。他与 dockerd 的解耦是为了让Docker变得更为的中立,而支持OCI 的标准 。

  • containerd-shim  是用来真正运行的容器的,每启动一个容器都会起一个新的shim进程, 它主要通过指定的三个参数:容器id,boundle目录(containerd的对应某个容器生成的目录,一般位于:/var/run/docker/libcontainerd/containerID), 和运行命令(默认为 runc)来创建一个容器。

  • docker-proxy 你有可能还会在新版本的Docker中见到这个进程,这个进程是用户级的代理路由。只要你用 ps -elf 这样的命令把其命令行打出来,你就可以看到其就是做端口映射的。如果你不想要这个代理的话,你可以在 dockerd 启动命令行参数上加上:  --userland-proxy=false 这个参数。


更多的细节,大家可以自行Google。这里推荐两篇文章:


  • Docker, Containerd & Standalone Runtimes — Here’s What You Should Know

  • https://hackernoon.com/docker-containerd-standalone-runtimes-heres-what-you-should-know-b834ef155426

  • Docker components explained

  • http://alexander.holbreich.org/docker-components-explained/

(全文完)

作者:左耳朵耗子

原文:

https://coolshell.cn/articles/18654.html


---END---

K8S培训推荐

Kubernetes线下实战培训,采用3+1新的培训模式(3天线下实战培训,1年内可免费再次参加),资深一线讲师,实操环境实践,现场答疑互动,培训内容覆盖:Docker架构、镜像、数据存储、网络、以及最佳实践。Kubernetes实战内容,Kubernetes设计、Pod、常用对象操作,Kuberentes调度系统、QoS、Helm、网络、存储、CI/CD、日志监控等。<了解更多详情>

北京站:12月30-31日,1月1日,或1月4-6日,深圳站:12月21-23日;上海站:1月4-6日; 咨询/报名:曹辉/15999647409


    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存